#AI 資料中心
高盛:800伏特革命:Nvidia如何重塑AI資料中心的未來能源版圖
市場花了三年時間才算清楚這個永不滿足的 AI 資本開支黑洞——尤其是為了阻止中國贏得 AI 戰爭,未來五年至少需要 5 兆美元的資金投入;而這一認知幾乎危險地逼近了戳破 AI 泡沫的邊緣。正當華爾街剛開始適應那個需要填補的巨額 AI 資金缺口之際,這個缺口眼看還要進一步擴大。10 月,輝達宣佈了十多家合作夥伴,著手讓資料中心行業為 800 伏直流(DC)供電架構和 1MW 機櫃功率密度做好準備——這將是一次革命性的轉變,取代傳統的 415 伏交流(AC)供電架構。這家 GPU 巨頭在 10 月中旬表示,將公佈 Vera Rubin NVL144、MGX 代開放架構機櫃伺服器的規格。公司還計畫詳述對輝達 Kyber 系統的生態支援;該系統連接 576 顆 Rubin Ultra GPU,旨在滿足不斷增長的推理需求。作為回應,約 20 家行業合作夥伴正展示新的矽方案、元件、電力系統,以及對輝達最新 800 伏直流(VDC)機櫃系統與電力架構的支援,以支撐 Kyber 機櫃架構。輝達表示:“從傳統 415 或 480 伏交流三相系統遷移到 800VDC 基礎設施,可提供更強的可擴展性、更高的能效、更低的材料使用量,以及更高的資料中心性能容量。使用 800VDC,在相同銅材條件下可傳輸超過 150% 的電力,從而無需用 200 公斤的銅母排為單個機櫃供電。”當然,這也意味著一筆巨額升級帳單即將到來。據 DataCenter Dynamics 報導,CoreWeave、Lambda、Nebius、Oracle Cloud Infrastructure 和 Together AI 等公司都在按 800 伏資料中心進行設計。輝達指出,富士康在台灣的 40MW “Kaohsiung-1” 資料中心也在使用 800VDC。此外,維諦技術(Vertiv)發佈了其 800VDC MGX 參考架構,結合了電力與製冷基礎設施架構。HPE 也宣佈將為 Kyber 提供產品支援。輝達補充稱,新的 Vera Rubin NVL144 機櫃設計具備 45°C(113°F)液冷、新的液冷母排以實現更高性能,以及 20 倍的儲能來保持供電穩定。中央印刷電路板中背板取代傳統的線纜連接,實現更快的組裝與更易維護。Kyber——輝達 Oberon 的繼任者——將在 2027 年前後容納 576 顆 Rubin Ultra GPU。該系統包含 18 個計算刀片並垂直旋轉放置,“像書架上的書一樣”。為輝達轉向 800VDC 提供矽方案的廠商包括 Analog Devices、AOS、EPC、Infineon、Innoscience、MPS、Navitas、onsemi、Power Integrations、Renesas、Richtek、ROHM、STMicroelectronics 和 Texas Instruments。多家晶片供應商指出,800VDC 需要更換電源晶片與電源供應器(PSU),其中不少廠商強調了氮化鎵的能力。AOE 表示:“這種範式轉變需要先進的功率半導體,尤其是碳化矽(SiC)和氮化鎵(GaN),以在更高電壓與頻率下實現最高效率。”參與該項目的電力系統元件供應商包括 BizLink、台達(Delta)、Flex、GE Vernova、Lead Wealth、光寶(LITEON)和 Megmeet。電力系統供應商發佈了新的電源機架(power shelves)、液冷母排、儲能系統與互連方案,以滿足輝達新系統的需求。資料中心電力系統供應商包括 ABB、Eaton、GE Vernova、Heron Power、日立能源(Hitachi Energy)、三菱電機、施耐德電氣、西門子和維諦技術(Vertiv)。多家廠商已宣佈新的 800VDC 架構參考設計,使營運商能夠為未來的 1MW 機櫃做準備。部分營運商正在考慮提供“側車(side-car)”機櫃,放置在電腦櫃兩側,提供所需的供電與製冷。施耐德電氣資料中心 CTO Jim Simonelli 表示:“隨著計算密度提升,轉向 800VDC 是自然演進。施耐德電氣致力於幫助客戶安全、可靠地完成這一過渡。我們的專長在於理解從電網到伺服器的完整電力生態系統,並設計能夠無縫整合、性能可預測且運行安全的解決方案。”可以理解的是,Simonelli 對這場變革欣喜若狂:這意味著隨著 AI 的首個重大升級周期啟動,AI 領域將需要向他的公司訂購數百萬甚至數十億的新裝置。而那些需要為此買單的人,顯然不會那麼高興。這也是為什麼在高盛最近的一份研究報告(nlg.news 可下載)中,該行資料中心分析師 Daniela Costa 寫道,近期投資者圍繞資料中心資本開支(capex)的討論,已轉向輝達提出的 800VDC 架構,以及資本貨物類股中誰將成為贏家和輸家,當然還有這筆帳單到底會有多大。據 Costa 稱,AI 資料中心採用 800VDC 架構是一場由 AI 工作負載不斷攀升的電力需求與營運挑戰驅動的根本性轉變。此次遷移的首要原因,是為了高效支援現代 AI 機櫃前所未有的功率密度——其規模正從每櫃數十千瓦提升到遠超 1 兆瓦,超出了傳統 54V 或 415/480VAC 系統的能力範圍。輝達預計,從長期看,其 800VDC 架構可通過效率、可靠性和系統架構的改進,將總體擁有成本(TCO)最多降低 30%,這也與更低的裝置維護成本相關(當然,短期內這將是另一道重大的支出門檻)。輝達預計,向 800VDC 資料中心的過渡將與其計畫於 2027 年推出的 Kyber 機櫃架構部署同步。關於 2028 年以後可採用輝達 VDC800 運行的資料中心佔比,行業記憶體在很大分歧。例如,在高盛第 17 屆工業周上,Legrand 表示他們預計向更高電壓的轉變將提升每 MW 的收入潛力(從傳統資料中心的 200 萬歐元/MW 提升到可能的 300 萬歐元/MW),但同時指出即便到 2030 年預測值(2030E),超過 300kW 的機櫃也應仍屬小眾;目前仍有 3/4 的機櫃低於 10kW。然而,高盛近期還主持了一場關於 AIDC 供電的專家電話會議,其中提到的預期是:800VDC 架構可能成為主流,覆蓋 80–90% 的新建資料中心。無論採用程度如何,這一技術轉變都意味著部分資料中心的預算可能會被重新分配到與當今架構顯著不同的產品類型上,從而對投資者產生潛在影響。因此,Costa 的目的在於向投資者闡明這些影響;儘管這些影響在未來兩年內不太可能推動公司的預測發生變化,但很快就會開始對估值產生影響。以下摘錄自高盛報告,概述該行對即將到來的關鍵技術變革及其影響的主要觀察。向800VDC配電轉型:800VDC架構從根本上改變了AI資料中心的供電方式,使傳統的AC PDU和AC UPS系統在很大程度上變得不再必要。這類基礎設施需要更精簡的供電路徑,將電力轉換集中化,並在設施層面整合電池儲能。與由單體UPS為特定機櫃或分區提供備用電力不同,800VDC架構採用設施級電池儲能系統。這些大規模電池系統負責管理電力波動、在停電時提供短時支撐電力,並確保整個資料中心的電網穩定性。這可將AC PDU機櫃需求降低多達75%,並支援兆瓦級機櫃功率密度。根據高盛第17屆年度工業周管理層評論,ABB目前在中壓直流UPS(MV DC UPS)系統中佔據100%的份額。隨著資料中心轉向在中壓側採用集中式備電系統,該細分領域預計將變得愈發重要;而施耐德、羅格朗和ABB目前在AC PDU與AC UPS方面已有佈局。Sidecar(側掛模組)是現有資料中心改造的啟動關鍵:在VDC800首輪落地階段(2025–2027),Sidecar將作為過渡模組部署,在完全原生的直流機房上線前發揮作用。它們掛接在兆瓦級機櫃上,將輸入的交流電轉換為800VDC,並提供整合的短時儲能以穩定GPU負載尖峰。該設計消除了對傳統AC PDU和UPS系統的需求,同時使機櫃功率可擴展至1.2MW。施耐德是這些Sidecar的關鍵供應商,明確瞄準帶整合儲能、最高1.2MW的機櫃。這些Sidecar包含DC-DC變換器,ABB也在我們的會議上提到,在該新架構下這類裝置將出現強勁需求。NVIDIA認為,為最大化效率,800VDC資料中心最終形態中還將配備固態變壓器;不過高盛覆蓋的廠商目前均未生產該產品,儘管施耐德和ABB表示正在積極在該領域創新。銅用量降低:在800V下電流需求更低,可使銅質量減少多達45%。同等尺寸導體在800VDC下可較415VAC承載約高出157%的功率,從根本上改變電纜與母線槽的經濟性。這意味著系統將從四線制交流轉向三線制直流(POS/RTN/PE),降低導體與連接器複雜度。由於在相同功率下電流更小,可採用更細的電纜與更小的母排——Prysmian、耐克森(Nexans)、羅格朗和施耐德在資料中心電纜與母排方面有重要敞口。儘管最佳化後,電纜與母線槽仍是800VDC配電不可或缺的組成部分。此外,一些公司指出,儘管此類裝置的用量需求降低,但對質量的要求更高,從而推升ASP;隨著需求轉向直流母線槽、直流開關裝置及專用電纜(尤其是液冷電纜),單位MW的內容價值上升。儘管不用於資料中心應用,耐克森生產液冷超導電纜;Prysmian正在開發直流冷卻解決方案以滿足快充需求;NKT也在研發超導電纜。此外,ABB、施耐德和西門子供應直流開關裝置,而大多數電氣廠商供應直流母線槽。向液冷的決定性轉向:當機櫃功率從數十kW提升至最高1.2MW,這一功率密度會產生前所未有的熱量,傳統風冷系統越來越難以高效散熱。風冷在應對AI與現代計算不斷提升的散熱與功率需求方面表現不足,從而推動行業決定性轉向液冷,並採用兆瓦級冷卻液分配單元(CDU)。在高盛覆蓋範圍內,施耐德通過其Motivair資產在液冷方面敞口最大;阿法拉伐(Alfa Laval)也通過協作獲得間接敞口,相關系統中還包括Vertiv等液冷方案提供商、超大規模雲廠商以及承包商。Carel也提供控製器、加濕系統與感測器,廣泛應用於資料中心液冷及傳統製冷系統。保護與安全系統重構:800VDC架構簡化了配電方式,不再通過大量交流配電盤來分配交流電(這些配電盤是由斷路器、開關與控制裝置組成的大型成套裝置)。在800VDC架構中,它們正被先進的直流安全斷路器與固態保護裝置所取代。固態斷路器是該領域的關鍵創新,相較機械式產品具備更快速度與更強可控性。例如,ABB的SACE Infinitus被稱為全球首款獲得IEC認證的固態斷路器,專為使直流配電具備可行性而設計。此外,施耐德也表示正在開發固態開關裝置,但尚未實現商業化。對儲能的需求增加:向800VDC資料中心轉型需要更大的電池儲能,以應對更高的功率波動並繞開電網並網限制,因為機櫃負載可在毫秒級從30%躍升至100%利用率。儲能將演進為主動的“低通濾波器”,吸收高頻尖峰並平滑負載爬坡。這將支援分層策略:在更靠近機櫃處使用快速響應電容來應對毫秒級波動,在更靠近並網點處使用大型BESS來提供更長時間的支撐。高盛強調,施耐德在儲能向更靠近機櫃部署的趨勢中具備敞口。臨別之際,高盛分析師指出,這是一個趨勢,其對該銀行覆蓋範圍的影響尚不明朗但可以肯定;儘管如此,這種技術的出現需要時間,該銀行預計將在 2028 年左右開始看到商業化。最後,我們用幾張圖表來總結,首先是未來幾年需要更換和不需要更換的東西的可視化快照,以及向 800VDC 的過渡:橙色部分代表需要升級的裝置以及對當前產品的潛在較低需求,紅色部分代表可能被更換的裝置,綠色部分代表預計需求會更強的裝置。接下來,按公司彙總的產品曝光情況。最後,對資料中心裝置競爭格局進行總結。 (老李說研報)
SemiAnalysis深度報告:美國電網跟不上,AI資料中心“自建電廠”跟時間賽跑
在公共電網建設動輒十年的現實下,OpenAI、xAI、Google等美國頭部AI實驗室集體繞開電網,自建燃氣電廠,以最快的速度讓算力跑起來。底層邏輯在於,當AI進入超大規模部署階段,電力問題已經從“成本問題”,升級為決定算力能否按期上線的第一性約束。AI的戰爭中,指數級增長的算力需求,正狠狠撞向美國老化且緩慢的公共電網。結論殘酷而清晰——誰等電網,誰就出局。為了不被時間淘汰,越來越多美國AI資料中心正在做一件過去幾乎不可想像的事:不等電網,直接在園區內自建電廠。燃氣輪機、燃氣發動機、燃料電池被快速部署到資料中心旁邊,只為一個目標——盡快把電接上,讓算力跑起來。2025年最後一天,知名半導體與算力研究機構SemiAnalysis發佈了一份長達60多頁的付費深度報告——《How AI Labs Are Solving the Power Crisis: The Onsite Gas Deep Dive》(AI實驗室如何破解電力危機:現場燃氣發電深度解析)。報告系統梳理了這一變化的底層邏輯:當AI進入超大規模部署階段,電力問題已經從“成本問題”,升級為決定算力能否按期上線的第一性約束。電力危機的本質:不是不夠,而是太慢在傳統認知中,美國並不存在系統性“缺電”。但SemiAnalysis指出,AI資料中心遭遇的真正瓶頸,並不在於電力資源是否存在,而在於電力交付節奏與算力擴張速度的嚴重錯配。AI資料中心的建設周期,已被壓縮至12—24個月;而電網擴容、輸電建設和並網審批的典型周期,仍然以3—5年計。當算力需求開始以吉瓦為單位集中釋放,“等電”本身就成為一種無法承受的風險。以德州ERCOT為例,2024—2025年間,資料中心提交的新增負荷申請規模高達數十GW,但同期真正獲批並成功接入的新增負荷,僅約1GW。電網並非沒有電,而是慢到無法匹配AI的節奏。當算力的“時間價值”壓倒電價為什麼AI公司願意承擔更高成本,也要繞開公共電網?SemiAnalysis給出的答案是:算力的時間價值正在重塑一切決策邏輯。按照測算,一個1GW規模的AI資料中心,年化潛在收入可達百億美元等級。即便是中等規模叢集,只要上線時間提前數個月,帶來的商業價值就足以覆蓋更高的電力成本。在這種背景下,電力不再只是營運成本,而是決定AI項目能否存在的前置條件。“自建電廠”,從非常規選擇變成現實解法於是,一種過去只存在於極端場景中的方案,被迅速推到台前——BYOG(BringYourOwnGeneration,自建電源、現場發電)。這種模式的目標並非永久脫離電網,而是“搶時間”:前期以離網方式快速投產後期再逐步接入電網,現場電廠轉為備用與冗餘在AI時代,先上線,正在壓倒先最優。xAI帶頭,AI巨頭集體“自發電”SemiAnalysis在報告中重點分析了xAI的案例。在孟菲斯,xAI在不到四個月內建成了一個10萬卡規模的GPU叢集。與其說這是算力奇蹟,不如說是一場電力工程的極限操作:完全繞過公共電網使用可快速部署的燃氣輪機與燃氣發動機現場發電能力超過500MW甚至在裝置層面,xAI選擇租賃而非採購,以進一步壓縮建設周期。報告顯示,到2025年底,“自建電廠”已不再是個案,而是成為系統性趨勢:OpenAI與甲骨文在德州合作建設2.3GW現場燃氣電站Meta、亞馬遜AWS、Google均在多個園區採用“橋接電力”方案多個AI超級叢集在未完成正式並網前已投入運行在美國,已有十余家發電裝置供應商,單筆拿下超過400MW的AI資料中心訂單。SemiAnalysis認為,這標誌著電力首次被視為AI基礎設施的一部分,而非外部條件。為什麼是天然氣?在所有現場發電方案中,天然氣成為絕對主流。原因並不複雜:它幾乎是唯一能在規模、穩定性和部署速度上同時滿足AI需求的選擇。相比之下,核電建設周期過長,風電與儲能難以支撐一天二十四小時高負載運行,而高效率聯合循環機組雖然經濟性更優,卻同樣無法滿足“立刻上線”的時間要求。在AI競爭中,最優解正在被時間解替代。誰等電網,誰就出局?SemiAnalysis在報告中並未迴避一個現實:自建電廠的長期成本通常高於電網供電。但在AI的競爭邏輯中,“慢”比“貴”更致命。當算力成為新一代基礎設施,電力正在從公共資源,轉變為AI公司必須掌握的內部能力。在這場競賽中,決定勝負的,不只是模型、晶片或資本規模,而是——誰能更快把電接到算力上。以下為報告原文內容,由AI協助翻譯:《AI實驗室如何解決電力危機:現場天然氣發電深度解析》電網老舊且不堪重負大約兩年前,我們首次預測了即將到來的電力短缺。在我們的報告《AI資料中心能源困境-AI資料中心空間的競賽》中,我們預測美國的AI電力需求將從2023年的約3吉瓦增長到2026年的超過28吉瓦——這種壓力將壓垮美國的供應鏈。我們的預測被證明非常準確。下圖說明了問題:僅在德克薩斯州,每月就有數十吉瓦的資料中心負載請求湧入。然而在過去12個月裡,僅批准了略高於1吉瓦的容量。電網已經售罄。然而,AI基礎設施不能等待電網長達數年的輸電升級。一個AI雲每吉瓦每年可以產生100-120億美元的收入。讓一個400兆瓦的資料中心提前六個月上線就價值數十億美元。經濟需求遠遠超過了諸如電網過載等問題。行業已經在尋找新的解決方案。十八個月前,埃隆·馬斯克在四個月內建造了一個擁有10萬個GPU的叢集,震驚了資料中心行業。多項創新促成了這一驚人成就,但能源策略是最令人印象深刻的。xAI完全繞過了電網,使用卡車裝載的燃氣輪機和發動機在現場發電。如下圖所示,xAI已經在其資料中心附近部署了超過500兆瓦的輪機。在一個AI實驗室爭相成為第一個擁有吉瓦級資料中心的世界裡,速度就是護城河。一個接一個,超大規模企業和AI實驗室紛紛效仿,暫時放棄電網,建造自己的現場發電廠。正如我們幾個月前在《資料中心模型》中所討論的,2025年10月,OpenAI和Oracle在德克薩斯州訂購了有史以來最大的現場天然氣發電廠,規模達2.3吉瓦。現場天然氣發電市場正進入一個三位數年增長的時代。受益者遠不止尋常的那些。是的,GEVernova和西門子能源的股價已經飆升。但我們正見證前所未有的新進入者浪潮,例如:韓國工業巨頭斗山能源,其H級輪機上市時機恰到好處。它已經獲得了為埃隆的xAI服務的1.9吉瓦訂單——正如我們幾周前獨家向我們《資料中心行業模型》訂閱者披露的那樣。瓦錫蘭,歷史上是一家船舶發動機製造商,意識到為游輪提供動力的發動機同樣可以為大型AI叢集供電。它已經簽署了800兆瓦的美國資料中心合同。BoomSupersonic——是的,那家超音速噴氣機公司——宣佈與Crusoe簽訂了1.2吉瓦的輪機合同,將來自資料中心發電的利潤視為其Mach2客機的又一輪融資。為了瞭解供應商的增長和市場份額,我們在《資料中心模型》中建立了部署現場天然氣的站點逐一追蹤器。結果讓我們驚訝:僅在美國,現在就有12家不同的供應商各自獲得了超過400兆瓦的資料中心現場天然氣發電訂單。然而,現場發電也帶來了自身的一系列挑戰。如下文詳述,發電成本通常(遠)高於通過電網供電。許可過程可能漫長而複雜。它已經導致了一些資料中心延遲——最引人注目的是Oracle/Stargate的一個吉瓦級設施,我們的《資料中心行業模型》通過分析整個許可過程,在彭博社頭條新聞發佈前三周就預測到了這一點。再一次,像xAI這樣聰明的公司找到瞭解決方案。埃隆的AI實驗室甚至開創了一種新的選址流程——在州界上建設,以最大程度提高及早獲得許可的機會!雖然田納西州未能按時交付,但密西西比州欣然讓埃隆建造了一個吉瓦級的發電廠。本報告是對"自帶發電"的深度解析。我們從電網為何跟不上開始,然後對資料中心可用的每項發電技術提供技術分解——GEVernova的航改型輪機、西門子的工業輪機、顏巴赫的高速發動機、瓦錫蘭的中速發動機、BloomEnergy的燃料電池等等。接著我們考察部署配置和營運挑戰:完全孤島式資料中心、燃氣+電池混合系統、能源即服務模式,以及決定那種解決方案勝出的經濟學原理。在付費牆後,我們將分享我們對製造商定位的看法,以及現場發電的未來。在AI時代,電網是否已死?在深入探討解決方案之前,我們需要理解電網為何失靈。公平地說,迄今為止,美國的電力系統一直是AI基礎設施的主要推動者。除了埃隆之外,當今每個主要的GPU和XPU叢集都運行在電網供電上。我們在之前SemiAnalysis的深度解析中報導過其中的許多:《微軟的AI戰略》展示了在威斯康星州、喬治亞州和亞利桑那州為OpenAI服務的龐大電網連接設施。我們的《多資料中心訓練》報告,深入探討了Google在俄亥俄州和愛荷華州/內布拉斯加州的龐大電網供電叢集,以及OpenAI在德克薩斯州阿比林與Oracle、Crusoe和Lancium合作的吉瓦級叢集。我們的《Meta超智能》文章闡述了他們的大型AI計畫,其中包括一些現場天然氣發電,但主要由俄亥俄州的AEP系統和路易斯安那州的Entergy供電。我們的《亞馬遜的AI復興》論文,討論了AWS為Anthropic準備的大規模Trainium叢集,同樣連接到AEP和Entergy的基礎設施。這些洞見在我們的《資料中心行業模型》中出現在官方宣佈之前數月或數年。我們的模型追蹤了數十個正在建設、計畫2026年及以後交付的大規模叢集——包括它們的確切啟動日期、全部容量、終端使用者和能源策略。但我們已經到了一個臨界點。2024-25年上線的大型資料中心是在2022-23年、淘金熱之前確保了電力供應。自那以後,爭奪變得持續不斷。我們估計,提交給美國公用事業公司和電網營運商的負載請求大約有1太瓦。結果就是僵局——字面意思。正如我們在《吉瓦級AI訓練負載波動》中所解釋的,電網的設計使其速度緩慢:即時平衡:電力的供應和需求幾乎必須完美匹配,每秒如此。不匹配可能導致數百萬人停電,正如我們在2025年4月伊比利亞半島停電事件中所見。系統研究:每一個大型新負載(資料中心)或供應(發電廠)都會引發深入的工程研究,以確保不會破壞網路穩定。而在某些地方,電網拓撲結構變化如此之快,以至於負載研究在完成前就過時了。當成百上千的開發商同時提交並網請求時,系統就會陷入停滯。這變成了一個囚徒困境:如果每個人都協調一致,電網本可以更快地處理更多請求。FERC第2023號命令已推動電網營運商為此採用叢集研究,但這些改革直到2025年才鞏固下來。實際上,"淘金熱"行為意味著開發商同時向不同的公用事業公司提交多個投機性請求。例如,截至2024年中,AEP俄亥俄州有35吉瓦的負載請求——其中68%甚至沒有土地使用權。投機性請求堵塞了所有人的佇列,從而鼓勵了其他地方更多的投機性請求。這種惡性循環加速了。供應端同樣受限。從並網請求到商業營運的時間表現在對於大多數發電類型來說已延長至五年。AI基礎設施開發商不能等待五年。在許多情況下,他們連六個月都不能等,因為等待六個月意味著數十億美元的機會成本損失。引入BYOG-自帶發電BYOG的核心價值主張很簡單:無需等待電網即可開始營運。資料中心可以無限期地依靠本地發電運行,然後在電網服務最終到位後,將這些裝置轉換為備用電源。這正是xAI的策略。他們使用移動燃氣輪機建造了"巨像"設施,在幾個月而非幾年內使其上線。現在每個人都在效仿這一策略。讓我們來研究一下如何實現。如何自帶發電:舊世界vs新世界BYOG涉及對我們建造發電廠方式的徹底重新思考。傳統上,我們通過大型、集中式的吉瓦級基荷發電機輸送電力——輔以較小的調峰電廠來處理電網範圍內的負載峰值。聯合循環模式下的重型燃氣輪機是最常見的現代部署方式。其無與倫比的燃料效率(>60%)為我們現代文明提供了支柱。然而,它們的主要問題是部署速度:獲得大型輪機通常需要數年交貨期,而目前的交貨期正處於歷史高位。一旦交付,大型聯合循環發電廠的建設和偵錯需要約2年時間——在AI時代,這簡直是永恆。AI資料中心"自帶發電"電廠重塑了規則手冊,xAI為行業引領了道路。為了更快部署,埃隆的AI實驗室依賴於SolarTurbines(CAT的子公司)的16兆瓦小型模組化輪機。這些輪機小到可以用標準長途卡車運輸。它們在幾周內即可部署完成。埃隆甚至沒有購買它們——他是從SolarisEnergyInfrastructure租用的,以繞過裝置交貨期。他還利用了VoltaGrid的移動卡車裝載燃氣發動機車隊來更快交付!其他超大規模企業迅速效仿。Meta在俄亥俄州與Williams的部署很有代表性——他們的發電廠包含了五種不同類型的輪機和發動機,顯然設計模式是"只要能及時到貨,有什麼我就部署什麼!"現在讓我們深入瞭解資料中心營運商可用的不同類型裝置。裝置格局概覽資料中心開發商可用的燃氣發電機中,大致分為三類:燃氣輪機-低溫、爬坡慢的工業燃氣輪機;高溫、爬坡快的航改型燃氣輪機;非常大型的重型燃氣輪機。往複式內燃機-包括較小的3-7兆瓦高速發動機;以及較大的10-20兆瓦中速發動機。有時簡稱為"活塞機"。固體氧化物燃料電池-目前主要的可用選項來自BloomEnergy。還有其他現場發電選項,例如與現有核電廠並置、建造現場小型模組化反應堆、地熱等等,但本報告不討論這些。在大多數情況下,未來約3年內,這些其他解決方案不會驅動淨新增發電。理解那些解決方案最適合某些用例需要深入核心權衡。我們認為以下幾點最為相關:成本:通常以$/kW列出。這些成本估算差異巨大,並且在每個發電機類別中都持續上升。注意維護費用也很重要:某些系統的使用壽命較短,即年度維護成本較高。交貨期:通常以月或年列出。隨著需求增長超過供應,每個發電機類別的交貨期都在增加。請注意,發電機可用性之外的其他因素也會影響供電時間。最值得注意的是,即使在像德克薩斯州這樣許可較快的州,現場發電的空氣許可也可能需要一年或更長時間。此外,不同系統的安裝時間差異很大。有些從現場交付到發電只需要幾周時間,例如小型卡車裝載輪機或發動機,以及燃料電池。大型聯合循環燃氣輪機組裝可能需要超過24個月。冗餘和可用性:發電機的預期可用性,以一年內的正常執行階段間百分比或"幾個9"表示。過去十年,美國電網平均可用性為99.93%(三個9),有些地區甚至更高。對於現場發電廠,可以通過增加熱備用和冷備用來管理冗餘,或通過增加備用電源。單個輪機越大,管理備用和備份就越困難。爬坡率:以冷啟動到最大輸出之間的分鐘數衡量。爬坡率小於10分鐘的發電機有資格作為電網或備用電源的儲備發電。爬坡率慢意味著該機組主要專注於基荷供電。土地使用:以兆瓦/英畝衡量。在空間受限的地區,這一點更重要。小型發電系統即使在叢集部署時,用水量也微不足道。然而,非常大的輪機確實需要大量冷卻用水。熱耗率和燃料效率:以每千瓦時消耗的天然氣BTU衡量。熱耗率越高意味著效率越低——輸入更多燃料,輸出相同電力,留下更多廢熱。銘牌熱耗率假設"峰值"運行條件,通常是最大輸出。在低於50%輸出時,效率會大幅下降。其中許多現場燃氣系統可以配置為熱電聯產系統。對於資料中心,這將涉及利用燃氣發電機的廢熱進行吸收式冷卻系統,從而減少資料中心冷卻的用電量。實際上,我們觀察到,無論其他規格如何,只要誰有開放訂單並能提供良好時間表,誰就傾向於贏得交易!話雖如此,現在讓我們深入瞭解不同類型的燃氣發電廠。航改型輪機和工業燃氣輪機——對資料中心極具吸引力燃氣輪機運行在布列敦循環上:壓縮空氣,在其中燃燒燃料,然後將熱氣體導向輪機。輪機通過入口溫度來區分。較低的溫度對應於較低的安裝成本、較低的維護成本、較低的峰值效率和較慢的爬坡率。航改型燃氣輪機本質上就是將噴氣發動機固定在地上。GEVernova的航改型源自GE的噴氣發動機;三菱動力的源自普惠;西門子能源的源自勞斯萊斯。由於噴氣發動機設計為在緊湊、適於飛行的封裝中提供巨大功率,因此它們相對容易改裝用於固定式發電。延長輪機軸,在末端螺栓連接發電機線圈,增加進氣和排氣消聲器,並從油箱或管道輸送燃料。這部分解釋了BoomSupersonic能如此迅速地轉向航改型燃氣輪機:他們的大部分工程和製造都是現成的。我們在下方展示了MartinDrake發電廠的檢視,配備了6台GEVernovaLM2500XPRESS機組。這就是電力公司部署航改型輪機的方式,作為電網突發供應短缺的"調峰電廠"。航改型燃氣輪機的核心製造商與重型燃氣輪機的相似:GEVernova、三菱動力和西門子能源主導市場,銷售航改型和低溫工業燃氣輪機。此外,卡特彼勒也通過Solar品牌生產工業燃氣輪機,Everllence也生產。兩種GEVernova設計主導了航改型市場:LM2500–約34兆瓦,針對快速部署最佳化,尤其是LM2500XPRESS。LM6000–約57兆瓦,現在有快速部署的LM6000VELOX配置。航改型燃料效率尚可,但在空間和重量方面極其高效。它們可以安裝在緊湊的佔地面積中,並且在某些配置下可以用一對拖車運輸。簡單循環的航改型通常提供30-60兆瓦的功率包,可以在5-10分鐘內從冷態爬升至滿負荷輸出。但是,如果低於滿負荷穩定運行,效率會受到影響。航改型也可以配置為小型聯合循環電廠:1x1(一台燃氣輪機驅動一台蒸汽輪機),或2x1(兩台燃氣輪機驅動一台蒸汽輪機)。這些聯合循環設定以犧牲爬坡速度為代價,提供了更高的效率和更多的輸出。啟動時間延長至30-60分鐘。按照目前的價格,航改型輪機的全投資本支出在$1,700-2,000/kW之間,根據近期訂單,其交貨期為18-36個月且仍在延長。較小輪機交貨期可短至12個月,較大的航改型輪機(約50兆瓦)可能長達36個月。這些系統安裝很快(通常2-4周),但工廠預訂量巨大。一個變通方法是使用卡車裝載輪機,如果可用,可以快速租賃和部署。xAI正是採用了這一策略,與SolarisEnergyInfrastructure合作,縮短了其Colossus1和2項目的供電時間。工業燃氣輪機工業燃氣輪機與航改型輪機工作原理相同,並共享緊湊佔地面積、模組化和相對較短交貨期等優點。但它們是專為固定使用從頭設計的,而非從航空領域改裝而來。它們通常在較低的入口溫度下運行,並使用更簡單的設計,這以犧牲效率和爬坡速度為代價降低了服務成本。簡單循環的工業燃氣輪機功率範圍大約為5-50兆瓦,從冷態爬升至滿負荷輸出約需20分鐘。這使得它們自身速度太慢,無法在沒有電池或柴油機組幫助的情況下作為調峰電廠或應急備用電源。與航改型類似,工業燃氣輪機可以升級為聯合循環配置,提高效率的同時進一步減慢爬坡率。最常見的專用工業燃氣輪機是西門子能源SGT-800和SolarTitan系列。然而,較小的重型燃氣輪機如GEVernova6B有時也承擔類似用例。按照目前的價格,工業燃氣輪機的全投資本支出在$1,500-1,800/kW之間,交貨期約為12-36個月,與航改型相似。然而,採購二手或翻新工業燃氣輪機可以將交貨期縮短至12個月以內,這正是FermiAmerica獲取電力的方式。總體而言,我們認為航改型輪機和工業燃氣輪機是現場發電非常具有吸引力的解決方案,因為:"尺寸合適":足夠小以便於冗餘,足夠大以避免現場單元過多並使維護複雜化。爬坡速度快:雖然它們能效不如其他方案,但它們更容易被重新用作備用電源。部署快速:普通卡車和施工隊即可運輸和安裝它們,而不是重型燃氣輪機所需的那種重型起重基礎設施。我們將在報告後面討論部署考慮因素時探討這些概念。航改型和工業燃氣輪機的主要問題是交貨期越來越長。燃氣輪機中供應最緊張的部件是渦輪葉片和核心機,它們必須承受高溫和高速。這些葉片使用含有錸、鈷、鉭、鎢、釔等稀土金屬的奇異單晶鎳基合金。往複式發動機往複式發動機工作原理類似於汽車發動機,但規模大得多,一台11兆瓦的發動機長度可能超過45英呎(14米)。它們使用四沖程燃燒循環,並根據轉速劃分:高速發動機–約1,500轉/分鐘;佔地面積和輸出較小。中速發動機–約750轉/分鐘;由於機械應力較低,通常維護成本較低。活塞機可以在10分鐘內從冷態爬升至滿負荷輸出,實際上與航改型相似。這使得活塞機可以作為調峰電廠或備用發電機,無需柴油備用電源。理論上,活塞機的維運成本看起來比輪機高,因為活動部件更多。但實際上,它們比許多輪機更好地處理燃料雜質、粉塵和高環境溫度,並且在炎熱氣候下性能下降較少。中速發動機製造業相當集中,主要製造商是瓦錫蘭、BergenEngines和Everllence。高速發動機製造業不如輪機那樣集中。除了顏巴赫、卡特彼勒、康明斯和勞斯萊斯子公司MTU等主要參與者外,還有眾多製造商,因為高速燃氣發動機在功能上等同於目前許多資料中心用於備用電源的柴油發動機設計。最具影響力的往複式發動機是顏巴赫J624,這是一台4.5兆瓦渦輪增壓燃氣發動機,可以集裝箱化以便物流。該系統是VoltaGrid能源整合服務的首選發電機。活塞機系統通常單位功率低於同等輪機。中速發動機功率在7兆瓦到20兆瓦之間,更高功率輸出通過渦輪增壓實現。高速發動機更小,單位輸出功率在3兆瓦到5兆瓦之間。然而,在50%到80%的部分負載下執行階段,活塞發電機比輪機效率更高。往複式發動機的運行溫度遠低於燃氣輪機,接近600°-700°C。這極大地減少了對高性能合金的需求。只有活塞、燃燒室和渦輪增壓器中的高溫部件仍然需要稀有鎳和鈷合金,其餘部分可以用簡單的鑄鐵、鋼和鋁製造。然而,總體而言,活塞機對關鍵礦物的依賴程度較低,特別是在材料供應緊張時期放寬排放控制的情況下。按照目前的價格,往複式發動機的全投資本支出在$1,700-2,000/kW之間,交貨期為15-24個月。與輪機相比,這些系統的製造延遲較少;製造時間線更接近12-18個月。然而,中速活塞機比輪機重得多,安裝和偵錯可能需要長達約10個月。高速發動機的部署可以快得多。例如,在最初的Colossus1部署中,xAI利用了34台VoltaGrid卡車裝載系統,整合了顏巴赫的高速發動機。高速發動機特別受能源採購供應商的歡迎。它們的廣泛可用性和小單元尺寸提供了更快的供電時間。我們在下方展示了VoltaGrid在聖安東尼奧的50兆瓦部署,配備了二十台顏巴赫J620。權衡之處在於規模:用5兆瓦發動機建構一個2吉瓦的現場燃氣系統,你需要500個單元!這帶來重大的營運後果。如果每台發動機每2,000小時需要一次小維護,那麼維護人員每年將執行超過2,000次服務,每周近40次。這些成本比輪機大修(可能涉及更換整個核心機)更可預測,但它們會累積,特別是對於擁有許多小單元的叢集。空間和備件庫存也會類似地增加,儘管小型發電機的垂直堆疊可以緩解土地使用問題,這對於中速發動機來說是不可能的。燃料電池與BloomEnergy的崛起一個相當小眾的解決方案正在佔據越來越大的市場份額:燃料電池。通常與氫能相關聯,BloomEnergy的SOFC固體氧化物燃料電池也可以使用天然氣運行,並被定位為基荷發電。我們早在2024年就在資料中心模型中指出了BloomEnergy是贏家。自那以後,訂單激增。Bloom的"能源伺服器"由多個約1千瓦的電堆組成,組裝成約65千瓦的模組,並打包成325千瓦的發電機組。迄今為止,最大的營運中SOFC發電廠規模在數十兆瓦,主要在美國和韓國。它們產生能量的方式與傳統發電機非常不同。沒有燃燒過程。相反,氧氣被電化學還原成氧離子,流經陶瓷電解質。在燃料電池的另一端,這些離子與從甲烷天然氣中剝離出來的氫原子結合。這種結合釋放出水、二氧化碳和電能。這種根本性差異為Bloom的燃料電池提供了關鍵優勢:它們不會產生嚴重的空氣污染(除了CO₂)。在EPA層面的許可比燃燒發電機要順利和容易得多。這就是為什麼我們經常在人口中心附近看到它們,例如辦公室附近。Bloom的殺手鐧是部署速度。它幾乎只需要預製基座和簡單的模組安裝。一旦考慮到電氣工程、安裝和偵錯,幾周內即可完成,與航改型輪機和高速活塞機的速度相當。在AI時代,速度就是護城河,僅這一優勢就足以讓Bloom佔據一席之地。Bloom的主要挑戰是成本。燃料電池效率相當好,等效熱耗率為6,000-7,000BTU/kWh,這與聯合循環燃氣輪機相當。然而,燃料電池系統的成本明顯高於輪機或活塞系統,資本支出成本在$3,000-$4,000/kW之間。Bloom沒有宣傳爬坡率,這表明這些單元速度太慢,無法作為調峰或應急備用。歷史上,維護成本也明顯高於其他解決方案。單個燃料電池電堆壽命大約5-6年,然後必須更換和翻新。這種逐電堆更換約佔服務成本的65%,儘管具體數字嚴格保密。我們將在付費牆後分享Bloom燃料電池的總擁有成本估算。重型燃氣輪機:BYOG的未來?在ChatGPT出現之前,只有公用事業公司和獨立電力生產商有理由購買大於250兆瓦的燃氣輪機,因為超過這個閾值的輪機對於大多數工業應用來說太大了。如上所述,部署速度是一個問題,然而,我們越來越多地看到開發商通過較小的航改型輪機/活塞機提供"過渡電力",然後在大聯合循環燃氣輪機投入運行後,將它們轉為備用/冗餘。大型輪機根據燃燒溫度和技術堆疊分為幾類:E級和F級–較舊、溫度較低、效率較低的設計。一些F級機組仍在銷售,通常是進入新興市場,因為它們以較低的資本支出提供了不錯的效率。工業輪機和小的E/F級輪機的界限模糊,下面這些著名型號跨越了這條界限:GEVernova6BGEVernova7E西門子能源SGT6-2000EH級及同等產品–現代、高溫設計。這些機組的燃燒溫度與現代航改型和噴氣發動機相當,但單位功率大約是其10倍。最突出的例子是:GEVernovaHA系列西門子能源H/HL三菱重工J系列最近,韓國公司斗山能源已經開始生產新的H級輪機DGT6。在一個有十年歷史的市場中看到新進入者很少見,但斗山在蒸汽輪機製造方面經驗豐富,並有建造三菱設計的F級輪機的記錄。這些系統既龐大又沉重。安裝和偵錯過程可能需要一段時間。聯合循環燃氣輪機聯合循環燃氣輪機利用了這樣一個事實:簡單循環的排氣仍然很熱,足以將水煮沸成蒸汽。將排氣通過餘熱鍋爐產生蒸汽,用於驅動單獨的蒸汽輪機和發電機。其結果是,相同的燃料產生第二輪電力。通過將一個輪機的廢熱變成另一個輪機的財富,聯合循環燃氣輪機可以比簡單循環輪機效率提高50-80%。最受大型負載推崇的聯合循環燃氣輪機是重型聯合循環燃氣輪機,可以達到吉瓦級的輸出功率。然而,即使是小型航改型或工業燃氣輪機也可以與整合的蒸汽輪機一起出售,這可以在幾乎相同的燃料輸入下顯著增加功率輸出。常見的配置有:1x1–一台燃氣輪機驅動一台蒸汽輪機2x1–兩台燃氣輪機驅動一台蒸汽輪機理論上,更多的燃氣輪機可以驅動一台蒸汽輪機,但收益遞減。聯合循環系統的主要缺點是爬坡率:增加蒸汽輪機將冷啟動到滿負荷輸出的時間減慢到30分鐘或更長。另一個主要缺點是交貨期。安裝和偵錯時間甚至比簡單循環部署更長。從裝置到執行:部署、挑戰、經濟學瞭解裝置格局是必要的,但還不夠。現場燃氣的真正複雜性不在於選擇LM2500還是顏巴赫J624——而在於如何配置、部署和運行這些系統以滿足資料中心正常執行階段間要求。電網是系統工程的一個奇蹟:成千上萬的發電機、數百條輸電線路和複雜的市場機制共同提供了99.93%的平均正常執行階段間。當你脫離電網時,你自己承擔了這種複雜性——用一個單一的發電廠來匹配電網級的可靠性。冗餘和正常執行階段間是現場燃氣發電成本在大多數情況下結構性遠高於電網供電的關鍵原因。下一節將考察領先的部署如何應對這一挑戰,以及對裝置選擇意味著什麼。Crusoe和xAI:過渡電力部署迄今為止最流行的現場燃氣策略之一是"過渡電力"。資料中心園區與電網積極溝通以獲得電力服務,但通過現場發電提前開始營運。過渡電力清除了電力作為營運瓶頸,允許資料中心提前數月開始訓練模型或產生收入。這種加速是顯著的!AI雲收入每年每兆瓦可達1000-1200萬美元,這意味著即使提前六個月為200兆瓦的資料中心供電並上線,也能帶來10-12億美元的收入。過渡電力帶來兩個優勢:正常執行階段間要求可以與工作負載匹配。例如,在德克薩斯州阿比林和田納西州孟菲斯,xAI和Crusoe/OpenAI都在部署大型訓練叢集。考慮到大型GPU叢集固有的不可靠性,訓練作業不需要特別高的正常執行階段間。因此,可以避免為冗餘而"過度建設"發電廠。一旦電網連接獲得保障,園區可以更靈活地用於推理。通過取消柴油發電機備份實現有利的經濟性。在孟菲斯和阿比林,沒有備用電源降低了資料中心每兆瓦的資本支出。一旦獲得電網連接,輪機可以作為備用電源——因此,優先選擇快速爬坡系統,例如航改型輪機。為了確保合理的正常執行階段間,xAI將輪機與Megapacks配對。這也使得能夠平滑負載波動——我們將在下面討論這個問題。永遠離網:冗餘挑戰,能源即服務許多發電機供應商建議資料中心所有者永遠不要麻煩與更廣泛的電網互聯;相反,他們認為他們的資料中心客戶應該永遠保持離網狀態。像VoltaGrid這樣的公司提供完整的"能源即服務"套餐,管理電力服務的所有方面:電能–容量兆瓦和能量兆瓦時電能質量–電壓和頻率容差可靠性–目標的"幾個9"正常執行階段間供電時間–從合同到營運的月份他們通常與客戶簽訂長期購電協議,客戶支付電力服務費用——能源即服務供應商實質上充當了公用事業公司的角色。他們採購裝置、設計部署、有時組裝物料清單、並維護和營運發電廠。部署離網發電的一個關鍵挑戰是管理冗餘。例如,位於德克薩斯州沙克爾福德縣的1.4吉瓦VantageDC園區將部署2.3吉瓦的VoltaGrid系統。這些系統較小,便於冗餘——但如果你要用大型重型輪機部署現場發電,冗餘方案可能只是簡單地擁有兩個發電廠,甚至更多。發電機製造商通常會建議至少採用N+1配置,甚至N+1+1配置。N+1配置在一台發電機意外停機時仍能維持全部發電能力,而N+1+1配置在保持這種靈活性的同時,還額外有一台發電機處於待命狀態以進行維護周期。這相當於駕駛一輛帶有備胎和補胎套件的汽車。請注意,N+1或N+1+1不一定指發電機的字面數量,因為資料中心負載通常遠大於單個現場燃氣發電機。例如,考慮一個總功耗(IT+非IT)為200兆瓦的資料中心:示例1:11兆瓦活塞機發電叢集:26×11兆瓦活塞機組總容量:286兆瓦正常執行階段:23台發動機以約80%負載運行,產生200+兆瓦。一台發電機故障:22台發動機適度提升至約82%負載。3台備用發動機用於維護或作為冷備用。以低於滿負荷運行發動機降低了維運成本,額外的機組為維護調度提供了緩衝。NexusDatacenter採用了類似的方法:他們最近申請了一個空氣許可,部署三十台Everllence18V51/60G燃氣發動機,每台功率20.4兆瓦,總計613兆瓦的發電能力。該站點還將包括152兆瓦的柴油備用發電,這可能滿足了整個站點的N+1冗餘要求。示例2:30兆瓦航改型輪機發電叢集:9×30兆瓦航改型機組總容量:270兆瓦正常執行階段:7台輪機以約95%負載運行以獲得最佳效率。一台輪機故障:第8台輪機啟動,保持輸出。第9台輪機留作維護備用。由於輪機大修比發動機維護更具破壞性,一些供應商提供熱插拔計畫:將需要大修的輪機取代為一個替換核心。在炎熱氣候下,如美國西南部,性能降額可能需要10-11台航改型輪機來維持N+1+1冗餘。Crusoe為Oracle和OpenAI在阿比林的站點採用了這種設定的變體,部署了十台輪機,包括五台GEVernovaLM2500XPRESS航改型燃氣輪機和五台Titan350,銘牌發電能力為360兆瓦。示例3:Meta+WilliamsSocratesSouthMeta和Williams正在建造兩座200兆瓦的專供式燃氣發電廠,為Meta的新奧爾巴尼中心供電,我們在本文中已經報導過:Meta在俄亥俄州的新型超快"帳篷"資料中心SocratesSouth項目是一個混合叢集:3×SolarTitan250工業燃氣輪機9×SolarTitan130工業燃氣輪機3×SiemensSGT-400工業燃氣輪機15×Caterpillar3520快速啟動發動機圍牆內的銘牌容量為306兆瓦:輪機約260兆瓦,發動機46兆瓦。正常情況下,一部分工業燃氣輪機穩定運行以提供200兆瓦電力。如果一兩台工業燃氣輪機跳閘,活塞機叢集可以快速爬坡來填補缺口。額外的工業燃氣輪機可用於維護切換。這支援了專供式的N+1+1設計。然而,與前兩個例子相比,這是一個拼湊的實現方案。輪機型號不匹配,使用的發動機是較小的1800轉/分鐘高速燃氣發動機。這表明Williams優先考慮了供電時間,而非標準化的維護計畫。匹配電網正常執行階段間:過度建設、電網作為備份、電池為了匹配電網提供的"三個9"的正常執行階段間,現場發電廠必須為冗餘而"過度建設"。這通常是現場發電成本相對於電網較高的關鍵原因。冗餘給營運商帶來了新的難題:系統規模與"過度建設"比率之間存在權衡。雖然H級和F級輪機比航改型輪機更節能,但更高的冗餘需求意味著,如果設計不當,基於重型輪機的孤島系統可能會產生比航改型輪機更高的電力成本。必須考慮其他解決方案,而不是簡單的"過度建設",例如使用較小的輪機作為"備用"、電池,甚至電網連接。為了理解過度建設比率,我們可以用一個實際例子。在德克薩斯州沙克爾福德縣,VoltaGrid用2.3吉瓦的顏巴赫系統為1.4吉瓦的資料中心供電,過度建設率為64%。我們可以這樣分解:峰值PUE過度建設:與德克薩斯州典型的電網連接站點一樣,存在1.4x-1.5x的過度配置,主要與冷卻相關。還有額外的10-17%過度建設與冗餘相關。對於H/F級系統,簡單的過度建設通常不是最經濟的路徑。一些營運商考慮僅為備用目的連接電網——但這引入了互聯時間表的挑戰,並使選址過程複雜化。也可以建造一個巨大的電池工廠——如下面xAI的Colossus2部署所示——但這既昂貴又不切實際,因為典型的儲存持續時間只有2-4小時。最後,可以使用不同尺寸的輪機和發動機組合,H級聯合循環作為基荷運行,工業燃氣輪機/航改型輪機/活塞機作為備用——但這通常比電網連接或2-4小時的電池儲能系統更昂貴。管理負載波動AI計算負載,特別是訓練負載,是高度可變的,包括亞秒級的兆瓦級功率激增和驟降。電力系統慣性越大,就越能在維持電力頻率的同時管理短期功率波動。如果頻率偏離50赫茲或60赫茲的基線太遠,功率波動可能導致斷路器跳閘或裝置故障。所有熱力發電機都有一定的慣性,因為它們是通過旋轉的重物發電的。然而,開發者可以通過輔助系統增加慣性:同步調相機–這些本質上是作為電動機旋轉起來的發電機,沒有機械負載。一旦與電網同步,它們只消耗少量損耗。在突然的負載變化期間,它們吸收或供應無功功率,穩定電壓並增加短時慣性。它們的能量容量很小,因此只能幫助幾秒鐘,而不是幾分鐘。飛輪 –這些增加了一個真正的旋轉能量緩衝器。一個電動-發電機組耦合到一個大飛輪,並連接在發電和負載之間。飛輪可以注入或吸收有功功率(而不僅僅是無功功率)5-30秒,平滑瞬態、發電機跳閘和電壓驟降。例如,Bergen通過一家附屬供應商將飛輪與其發動機打包提供。電池儲能系統 –電池可以像負載變化一樣快速爬坡,通過高速控制提供"合成慣性",如前一篇文章所述。它們在頻率調節方面表現出色,但由於逆變器電流受限,它們對無功功率和故障電流的貢獻不如同步電機。VoltaGrid將活塞機叢集與同步調相機結合使用。BergenEngines已經通過同一母公司旗下的供應商銷售帶有飛輪的發動機。發動機製造商瓦錫蘭有一個電池儲能部門,他們可能會將其與資料中心項目捆綁。Bloom聲稱其燃料電池系統不需要任何裝置來管理負載波動。具體使用的系統取決於當地的限制條件,但主要取決於供應商偏好使用什麼。xAI偏好使用特斯拉的Megapack進行備份和處理負載波動。Megapacks+MACROHARD我們是否能夠建造足夠的燃氣發電廠來為AI供電?目前燃氣發電系統的交貨期是前所未有的。歷史上,燃氣輪機製造商平均只接受工廠發貨前20個月的訂單,但現在三大製造商GEVernova、西門子能源和三菱動力正在接受2028年和2029年的訂單,甚至還有之後不可退款的預訂席位。每個公開的燃氣系統製造商都報告了資料中心需求的增長,但大多數都反應謹慎,而不是全面擴張。GEVernova已承諾將產量提高到24吉瓦/年,但這只是回到其2007-2016年的水平。他們正在投資新員工和機械,但不打算增加工廠佔地面積。西門子能源也計畫投資生產而不增加工廠佔地面積。相反,他們優先考慮價格上漲,依賴服務收入,並優先考慮投資回報期短的投資。他們計畫到2028-30年將年產能從約20吉瓦擴大到>30吉瓦。三菱重工在最近的財報電話會議上表示計畫將燃氣輪機和聯合循環產量增加30%,這與彭博社關於計畫到2027年將產能翻倍的報導相矛盾。卡特彼勒計畫在2024年至2030年間將發動機產量翻倍,渦輪機產量增加2.5倍,但其Solar品牌渦輪機在2020-2024年間平均年產量約為600兆瓦,2022年峰值產量為1.2吉瓦。瓦錫蘭只承諾漸進式擴張,寧願"觀望"資料中心需求,並保持與海運客戶的關係。在主要的燃氣發電機製造商中,只有BloomEnergy、卡特彼勒和新進入者BoomSupersonic宣佈了雄心勃勃的擴張計畫。BloomEnergy聲稱到2026年底可以達到2吉瓦/年的生產能力,BoomSupersonic計畫到2028年底達到2吉瓦/年。乍看之下,儘管需求激增,但似乎很少有製造商完全接受"通用人工智慧信念"。這種猶豫部分反映了真實的製造限制;大部分則反映了對燃氣發電行業30年繁榮-蕭條周期的創傷後應激障礙。值得注意的是,最嚴重的瓶頸在重型輪機。航改型輪機、工業燃氣輪機和活塞機系統的限制較少。燃氣輪機的兩次繁榮-蕭條周期自90年代中期以來,燃氣輪機行業經歷了兩次繁榮-蕭條周期。第一次繁榮,在1997年至2002年間,由美國部分地區的電力放鬆管制推動,這吸引了新公司成為獨立電力生產商,以及(諷刺的是)由Huber和Mills的論文"TheInternetBeginswithCoal"所普及的、來自網際網路泡沫對電力需求增長的高預期。像Calpine、Duke、Williams和NRG這樣的大型企業大批訂購輪機,將GEVernova和西門子能源的訂單量推至頂峰。GE在2001年出貨了超過60吉瓦的燃氣輪機;西門子在2002年達到20+吉瓦的峰值。崩盤來得很快。網際網路泡沫破裂,安然醜聞動搖了電力交易業務,訂單枯竭,使GE和西門子陷入了長達數年的製造寒冬。燃氣輪機行業的第二次"繁榮"更像是一種訂單穩定的狀態,而非真正的繁榮。在2006年至2016年間,GE平均每年出貨約20吉瓦輪機,西門子約15吉瓦/年。然後,在2017年至2022年間,市場徹底崩潰,GE和西門子的年產量都降至10吉瓦以下的歷史低點。這兩家大公司既有對Y2K燃氣輪機繁榮期的機構記憶,也有對銷售處於歷史低點的近期記憶。值得注意的是,三菱重工在很大程度上避開了這些繁榮-蕭條周期。直到最近,三菱重工銷售的硬體數量僅佔GEVernova和西門子能源的一小部分。它成為"三大"之一,僅僅是因為更大的公司已縮減到其銷售規模,而阿爾斯通能源和西屋等其他參與者已經關閉或被收購。這可能部分解釋了MHI對擴張的興趣,儘管其所謂的翻倍計畫在財報電話會議上並未得到證實。供應鏈瓶頸然而,在燃氣輪機內部,即使保證未來需求高漲,也可能不會推動增加產量,因為燃氣輪機核心機的生產和物流存在內部瓶頸。燃氣輪機葉片和靜葉是現代工業文明技術能力的巔峰之一,需要極其高品質的冶金和加工技術才能正確製造。渦輪葉片和靜葉是現代工業製造的最苛刻的部件之一。製造它們需要非凡的冶金和加工精度。因此,西方的生產集中在四家公司:PrecisionCastpartsCorporation、HowmetAerospace、ConsolidatedPrecisionProducts、Doncasters。這些公司不僅供應工業和電力燃氣輪機,還供應民用和軍用噴氣發動機。除CPP外,其他公司都有垂直整合的金屬供應,但它們的規模只是其客戶的一小部分,因此更容易受到市場衝擊的影響。第二次燃氣輪機蕭條與COVID導致航空航天訂單下滑同時發生,這意味著這些公司最近受到了相當大的打擊。需求增加不僅需要這些公司僱用更多的專業員工,還需要考慮釔、錸、單晶鎳和鈷等材料的供應鏈。更重要的是,他們可能不願意進行這些投資,因為如果跟隨AI泡沫跌落懸崖,他們損失最大。此外,重型燃氣輪機的生產受到物流限制。僅輪機核心就是300-500噸的系統,需要專門的駁船、鐵路貨車和卡車拖車運輸。即使在獲得許可後,重型燃氣輪機也需要24-30個月來建造、安裝和測試,然後才能運行。售後市場的OEM可以圍繞翻新的核心建造新電廠,但移動和整合這些核心仍然是一個重大挑戰。這些限制對於航改型輪機和工業燃氣輪機來說不那麼嚴重,它們小到可以用標準集裝箱或常規拖車運輸。新進入者來救援:從飛機到輪船?通常,在受限時期,許多聰明的公司都在探索解決方案。ProEnergy是最早帶來創新的公司之一。其PE6000項目改造了來自波音747的CF6-80C2發動機核心,並提供與GEVernovaLM6000規格和封裝幾乎相同的營運航改型燃氣輪機。最近,BoomSupersonic宣佈開發基於其超音速噴氣發動機設計的Superpower航改型燃氣輪機。其提議的外形與GEVernovaLM2500非常相似,並且運行原理相同:一台可以裝入一個集裝箱的小型噴氣發動機(輔助進氣、控制和排氣裝置裝入另外1-2個集裝箱)。該發動機的測試仍在進行中,但初步宣傳規格顯示,即使在高溫環境空氣下,Superpower每單元也能產生42兆瓦電力。首批1.2吉瓦的產量已被Crusoe預訂,目標是在2027年達到200兆瓦產量,2028年達到1吉瓦,2029年達到2吉瓦。初始訂單價格表明硬體成本為$1,000/kW,但這個數字不包括平衡系統、運輸或偵錯費用,不應直接與全包成本資料進行比較。BoomSupersonic擁有葉片和靜葉生產的垂直整合能力,但依賴外部供應商進行冶金,這可能仍然是一個供應鏈瓶頸。我們還沒有看到其他公司加入改裝的行列。然而,中速發動機主要由擁有長期造船發動機製造經驗的公司製造——例如瓦錫蘭。事實上,它們基本上是相同的發動機,可以在同一設施中製造。我們什麼時候會看到舊的船用發動機被改裝來為資料中心供電?現在讓我們轉向比較不同的解決方案和製造商。我們還將分析現場發電的經濟性和總擁有成本,並將其與美國電網進行比較。新進入者來救援:從飛機到輪船?通常,在供應受限時期,許多聰明的公司會探索解決方案。ProEnergy是最早帶來創新的公司之一。其PE6000項目改進了來自波音747的CF6-80C2發動機核心,生產出運行特性與GEVernovaLM6000幾乎相同的航改型燃氣輪機。最近,BoomSupersonic宣佈開發基於其超音速噴氣發動機設計的Superpower航改型燃氣輪機。其提出的外形與GEVernovaLM2500極為相似,並遵循相同原理:一個可以裝入單個集裝箱的小型噴氣發動機(輔助進氣、控制和排氣裝置則裝入另外1-2個集裝箱)。該發動機的測試仍在進行中,但初步宣傳規格顯示,Superpower每單元可產生42兆瓦電力,即使在環境空氣溫度較高時也是如此。首批1.2吉瓦的產量已由Crusoe預訂,目標是在2027年實現200兆瓦產量,2028年1吉瓦,2029年2吉瓦。初始訂單價格暗示硬體成本約為每千瓦1000美元,但此數字不包括平衡系統裝置、運輸或偵錯費用,不應直接與全包成本資料比較。BoomSupersonic已垂直整合了葉片和靜葉的生產,但依賴外部供應商提供冶金材料,這可能仍是一個供應鏈瓶頸。我們尚未看到其他公司加入改裝的行列。然而,中速發動機主要由擁有長期造船發動機製造經驗的公司製造——例如瓦錫蘭。實際上,它們基本是相同的發動機,可以在同一設施中製造。我們何時會看到舊的船用發動機被改造用於為資料中心供電?現在,讓我們將注意力轉向比較不同的解決方案和製造商。我們還將分析現場發電的經濟性和總擁有成本,並將其與美國電網進行比較。現場發電經濟性分析現場發電的關鍵經濟問題是:與從電網購電相比,其總擁有成本是高是低?我們的分析表明,對於絕大多數資料中心而言,現場發電更昂貴。在美國大部分地區,大型工業使用者的電網供電價格在每兆瓦時40至80美元之間。對於新建的聯合循環燃氣輪機發電廠,若其資本成本能分攤到20年以上,平準化度電成本可低至每兆瓦時40至55美元(不包括輸電和配電成本)。而現場發電的成本則高出許多:航改型輪機/工業燃氣輪機:平準化度電成本約為每兆瓦時80至120美元。活塞發動機:平準化度電成本約為每兆瓦時90至130美元。燃料電池:平準化度電成本約為每兆瓦時120至180美元。主要驅動因素包括:資本成本高:現場發電機組的每千瓦資本支出通常是公用事業規模燃氣輪機的兩到三倍。燃料成本:雖然燃料成本本身大致相同,但現場小型機組的效率通常低於大型聯合循環燃氣輪機,這意味著每單位發電消耗更多燃料。維運成本:分佈式發電機組的維護和營運成本更高,尤其是當它們需要頻繁啟停或低負載執行階段。冗餘成本:如上所述,為匹配電網可靠性而進行的過度建設會顯著增加資本支出。然而,將現場發電視為"更昂貴"的選項,可能會錯過其核心價值主張:時間價值。對於AI工作負載,推遲上線六個月的損失可達數十億美元。因此,即使現場發電的平準化度電成本高出50%,只要能提前數月甚至數年上線,其淨現值也可能是正數。這就是為什麼xAI、OpenAI、Crusoe等公司願意支付溢價:他們是在購買時間。裝置與製造商定位基於我們的資料中心模型跟蹤,我們對主要參與者的市場定位看法如下:GEVernova:憑藉其LM系列航改型輪機和HA級重型輪機,佔據了高端市場。他們受益於品牌認知度、廣泛的服務網路以及在快速部署解決方案方面的早期成功。然而,其交貨期最長,可能將部分需求推送給競爭對手。西門子能源:在工業燃氣輪機和中型航改型輪機方面實力強大。他們的SGT-800是資料中心領域的流行選擇。與GE類似,他們面臨交貨期延長的問題,但可能更靈活地應對中型項目。三菱重工:作為相對較晚進入資料中心領域的參與者,他們可能憑藉可用的產能和積極的定價獲得市場份額。其J系列輪機效率高,但在快速部署解決方案方面認知度較低。卡特彼勒/SolarTurbines:憑藉Titan和Saturn系列工業燃氣輪機,以及模組化、可運輸的解決方案,成為了關鍵參與者。他們受益於與xAI的早期合作,以及通過SolarisEnergyInfrastructure等合作夥伴提供的租賃模式。瓦錫蘭:在中速發動機市場佔據主導地位,並將其船舶專業知識應用於資料中心。他們提供可靠的基荷電力,但爬坡速度較慢,且對大規模部署眾多小型單元帶來的維運複雜性持謹慎態度。顏巴赫/INNIO集團:在高速發動機領域佔據領先地位,特別是通過與VoltaGrid的整合,提供"能源即服務"解決方案。他們最適合需要快速部署和營運靈活性的項目。BloomEnergy:在高密度城市區域或環境許可嚴格的地點具有獨特優勢。其部署速度是最大賣點,但高昂的成本限制了其廣泛採用。他們需要證明其長期可靠性和降低維護成本。BoomSupersonic:一個潛在的顛覆者。如果他們能如期交付Superpower輪機,並實現承諾的每千瓦1000美元的硬體成本,他們可能會從現有製造商手中奪取大量市場份額。然而,他們面臨執行風險,且尚未經過大規模驗證。斗山能源:作為H級輪機市場的新進入者,憑藉與xAI的大型訂單獲得了早期關注。他們需要建立可靠的服務和維護網路以贏得長期信任。未來展望現場發電並非一時風尚。我們預計,在美國電網大規模升級(這可能需要數十年)之前,現場發電將成為大型AI資料中心不可或缺的一部分。未來幾年,我們將看到以下趨勢:混合系統成為常態:資料中心將結合現場發電、電網連接和電池儲能,以最佳化成本、可靠性和可持續性。燃料多樣化:隨著氫能和可再生天然氣供應鏈的發展,現場發電機可能轉向低碳燃料,以應對環境監管和ESG壓力。標準化與模組化:裝置供應商將提供更多預配置、集裝箱化的發電解決方案,以進一步縮短部署時間。監管演變:空氣質量和排放法規將演變,可能為使用先進排放控制技術的現場發電提供快速通道許可。小型模組化反應堆的潛在角色:長期來看,下一代核能可能成為現場基荷電力的重要來源,但這可能要到2030年代後期。最終,AI對電力的無盡需求正在顛覆一個世紀以來集中式發電和輸電的模式。"自帶發電"的興起,標誌著電力行業向更分佈式、更模組化、以及速度優先的範式轉變。電網可能不會"死亡",但它肯定需要學會與這些自立自足的AI巨獸共存。對於那些能夠提供快速、可靠且具有成本競爭力的發電解決方案的供應商來說,一個巨大的機遇之窗已經打開。競爭才剛剛開始。 (invest wallstreet)
比特幣全網算力突破 1 ZH/s,單幣全成本抬升至 13.7 萬美元
2025 年 12 月,比特幣全網算力首次突破 1 ZH/s(ZettaHash)這一象徵性關口,網路安全成本進入新的量級區間。多項行業資料顯示,算力擴張正在顯著抬高單枚比特幣的生產成本,並加速礦業結構的出清過程。根據 CryptoRank 彙總的上市礦企財務資料,目前挖掘 1 枚比特幣的平均現金成本已上升至約 7.46 萬美元。若將礦機折舊、融資成本及股權激勵(SBC)計入在內,行業測算的全成本水平已接近 13.7–13.8 萬美元。成本抬升的直接結果,是回本周期被顯著拉長。以當前算力與難度水平估算,即便在效率較高的礦場環境中,單台礦機的投資回收周期也已延伸至 1200 天以上。隨著融資成本上行,這一周期仍存在進一步拉長的可能。算力競爭加劇正在改變礦業參與者的結構。中小礦工在電價、資本成本與裝置效率方面處於明顯劣勢,退出速度加快;而頭部礦企則通過規模化部署、長期電力合約與財務工程手段維持邊際盈利空間。與此同時,部分上市礦企開始加速向 AI 算力託管、資料中心基礎設施等相關業務延伸,以分散單一挖礦模式下的現金流波動風險。從網路層面看,算力突破 1 ZH/s 意味著比特幣系統的安全性與攻擊成本同步抬升。對潛在攻擊者而言,維持 51% 算力所需的資本與能源投入已進入難以企及的區間;而對網路內部參與者而言,安全性的提升正在以更高的長期資本約束為代價。算力所代表的並非短期價格訊號,而是一種持續性的結構成本。當算力與全成本同步抬升,比特幣的“安全性”與“生產門檻”被重新定價,行業進入以資本效率、能源獲取能力和規模優勢為核心變數的新階段。 (方到)
甲骨文百億項目融資突然「告吹」,美國AI泡沫恐慌來襲?
美國時間12月中旬,有報導稱,甲骨文在美國資料中心項目的主要支持者Blue Owl Capital將不會資助密歇根州一個價值100億美元的資料中心。這被視為百億項目融資“告吹”,該消息迅速放大並引發市場對AI泡沫的擔憂。實際上,自9月初見頂以來,甲骨文股價已下跌近45%。作為近兩年推動美股牛市的關鍵因素,AI行業對於明年市場的走向依然至關重要。難道,美國此輪 AI 基建周期已經提前來到了拐點?甲骨文的AI故事不香了?7 個月前,甲骨文官方帳號在社交媒體上發佈了一段頗具象徵意味的視訊。畫面中,時任甲骨文雲基礎設施負責人 Clay Magouyrk 正帶領 OpenAI CEO 山姆·奧特曼(Sam Altman)參觀德克薩斯州阿比林(Abilene)首個“星際之門(Stargate)”項目現場。Magouyrk 對奧特曼形容道:“這裡就像是小孩子在玩很大的玩具。”甲骨文官號配文稱:“我們正在建設全球最大的 AI 訓練設施。”當時,多家媒體援引知情人士稱,OpenAI 未來幾年將向甲骨文支付千億美元規模的算力費用。圖:2025年4月,OpenAI CEO奧特曼造訪甲骨文資料中心現場這一敘事迅速傳導至資本市場。甲骨文股價從 4 月 21 日的約 122 美元一路上漲,在 9 月初一度衝至 320 美元以上,也讓 81 歲的聯合創始人埃裡森以約 3832 億美元的身家,短暫超過馬斯克,重回世界首富寶座。幾乎在同一時期,主導雲端運算基建項目的 Clay Magouyrk 被提拔為甲骨文聯席 CEO。但進入年末,隨著投資者逐漸將目光從“故事規模”轉向“兌現這些承諾所需付出的成本”,甲骨文股價開始回吐此前全部漲幅。問題不再是 AI 有沒有前景,而是這條路到底要花多少錢、多久才能回本?信用市場最先“翻臉”曾因做空安然成名的大空頭吉姆·查諾斯(Jim Chanos),在 12 月初毫不避諱地公開炮轟甲骨文資產負債表擴張過快,正逼近財務承壓區間。他在播客採訪中直言,作為五大超大規模雲廠商之一,甲骨文為了追趕同行而採取了激進投資策略,但新增資本投入並未帶來相應的利潤回報。“如果用新增營業利潤除以新增投入資本來計算,甲骨文的回報率只有大約 8.5%,而微軟接近 40%。”查諾斯指出,這意味著甲骨文目前無法收回增量資本成本。在他看來,更大的不確定性來自 AI 變現時間表本身。市場普遍假設 AI 的貨幣化拐點將在 2027到2028 年出現,但如果這一節點被推遲至 2030 年,甚至最終無法兌現,甲骨文將面臨根本性的財務挑戰。這並不是對 AI 技術前景的否定,而是對當下資本配置邏輯的質疑。這一點,在甲骨文 12 月初的財報電話會上被體現得更加直接。多位分析師反覆追問:甲骨文在 AI 上到底要花多少錢?但管理層並未給出清晰的數字答案。私募信貸開始轉向?與此同時,私募信貸市場也在重新定價風險。紐約投資公司 Blue Owl 過去是甲骨文多項大型資料中心項目中的關鍵資本方。其典型做法是通過設立特殊目的公司(SPV),引入銀行融資,並以甲骨文的長期租約作為現金流支撐,從而幫助甲骨文實現“資產負債表外”的擴張。在德州阿比林、新墨西哥等項目中,這一模式運轉順暢。但密歇根項目成為分水嶺。隨著市場對 AI 支出規模、甲骨文自身債務水平以及項目執行風險的態度發生變化,貸款方開始要求更嚴格的租賃和債務條款。在融資成本上升、槓桿空間收緊的情況下,該項目對 Blue Owl 的財務吸引力明顯下降,最終導致其在放款前選擇退出。儘管甲骨文緊急“滅火”稱,項目的股權交易最終談判進展按計畫進行,整體推進符合預期,但市場的擔憂已經被點燃。OpenAI能否付得起錢?另一條逐漸被市場放大的質疑,來自OpenAI算力訂單的可靠性。摩根大通分析師埃麗卡·斯皮爾在 12 月 15 日關於甲骨文的研報標題為“如果你建造它,他們(OpenAI)會付錢嗎?”投行D.A.Davidson 科技研究主管分析師 Gil Luria 在 12 月 12 日的一份報告中直言,“鑑於 OpenAI 不太可能兌現其 3000 億美元的承諾,我們認為甲骨文最好的做法是主動重組該合同,以更負責任地部署資本,而不是假裝擁有 5230 億美元的剩餘履約義務( RPO)。”剩餘履約義務(RPO)指的是企業已簽訂的、但尚未確認為收入的合同銷售。換句話說,OpenAI承諾在未來五年向甲骨文支付3000億美元購買算力,但並非一定發生。截至 11 月 30 日,甲骨文的 RPO 已躍升至 5230 億美元。“OpenAI 誤導了甲骨文,甲骨文又誤導了投資人。” Gil Luria 在接受採訪時表示,儘管甲骨文被頻繁提及為 OpenAI 的重要基礎設施合作方,但在實際算力分配、合同結構以及未來擴展中,其最終能分得多少,仍缺乏透明度。11月初,OpenAI 先後與微軟、亞馬遜簽署新的合作協議,算力來源呈現明顯的多元化趨勢,讓甲骨文在OpenAI生態中的位置變數增加。更重要的是,OpenAI 在AI需求中的位置也處在變動中。一來,隨著Google等資金實力更雄厚的競爭對手加速追趕,新一代 Gemini 模型獲得市場好評,奧特曼本人在12月初已經通過公司內部信發出“紅色警報”,那怕推遲其他產品的開發,也要全力押注GPT在AI競爭中保持身位。也就是說,在技術路線快速演進的背景下,OpenAI 是否能夠持續保持領先,並不確定。二來,OpenAI 與晶片製造商輝達之間的協議仍懸而未決。兩家公司曾於 9 月 22 日宣佈簽署意向書,稱輝達將在多年內向OpenAI投資多達 1000 億美元,OpenAI 則購買數百萬輝達專用晶片用於其 AI 基礎設施。外界曾期待OpenAI會把輝達的投資轉手給甲骨文購買算力。但兩個多月過去了,協議仍未正式簽署。輝達在最新財報中表示,“並不保證任何投資會按預期條件完成,甚至根本不會完成。”AI競爭進入“現金流檢驗期”?甲骨文並非唯一重注 AI 的科技公司,但在這一輪投資周期中,卻處在對資本最為敏感的位置。在 AI 浪潮之前,甲骨文依賴高度可預測的現金流和約 70% 毛利率的傳統軟體業務,能夠支撐穩定回購與分紅。但 AI 投資打破了這一平衡。資料中心和算力基礎設施意味著資本高度前置、回報周期拉長,執行節奏成為關鍵變數。相比之下,微軟和Google擁有更強的現金流緩衝,更容易消化長期資本消耗。當資本已經投入、收入尚未兌現、利率仍處於高位時,市場開始重新評估,那家公司的資本結構,能夠承受更長時間的回報延遲。儘管公司已任命新的聯席 CEO,但是否繼續為 AI 承擔高強度投入,最終仍由創始人拉里·埃裡森拍板。Oracle 的英文原意是“神諭”。當 AI 投資進入結算階段,市場關心的也不再是預言是否宏大,而是誰能撐到預言兌現的那一天。 (新浪科技)
AI算力“逃離地球”?Google宣佈“追日者”計畫,2027年擬在太空部署AI資料中心
Google提出“太空資料中心”設想,試圖以太陽能驅動的衛星叢集緩解AI算力與能源瓶頸。但高昂成本、維護困難、軌道碰撞與監管缺失構成重大挑戰。在微軟水下項目受挫後,這一計畫更像對AI無限擴張的激進押注。Google正在嘗試一項突破性的基礎設施實驗,計畫將高能耗的AI資料中心轉移至太空,以應對地面電力短缺和規劃受阻的瓶頸。據英國《金融時報》17日報導,Google披露了名為“Project Suncatcher”的計畫,旨在建構一個由太陽能驅動的太空資料中心原型。該項目並不是建立一個單一的軌道巨石,而是由81顆搭載AI晶片的衛星組成的叢集,它們將在太空中協同飛行並處理資料。作為該計畫的第一步,Google將與衛星公司Planet合作,預計於2027年向近地軌道發射兩顆原型衛星。此舉的核心邏輯在於利用太空獨特的環境優勢——特別是太陽同步軌道提供的近乎恆定的太陽能,以及免除在地面建設所需的土地和水資源。對於投資者而言,這釋放了一個明確的訊號:儘管面臨物理世界的限制,科技行業仍試圖證明AI具備無限的可擴展性。如果Gemini等AI模型的查詢能夠在太空中處理並將結果傳回地球,將徹底改變算力基礎設施的成本結構與能源依賴。然而,這一宏大構想正面臨嚴峻的技術可行性與經濟性拷問。在微軟此前結束其海底資料中心項目(Project Natick)後,業界對極端環境下資料中心的維護難度與成本效益持謹慎態度。除了高昂的發射與維護成本,太空環境的輻射、碎片撞擊風險以及日益擁擠的軌道交通,都為這一“上天”計畫的前景蒙上了陰影。01 逃離地球:Google的“追日”計畫根據Google研究人員上個月發佈的預印本論文,Project Suncatcher設想在距離地球約650公里的太陽同步軌道上運行。該軌道能夠確保通過衛星搭載的太陽能電池板獲得近乎不間斷的電力供應,從而為高能耗的AI負載提供動力。與傳統地面資料中心不同,這一架構依賴於衛星群的協同工作。這些衛星不僅要處理計算任務,還需要在高速飛行中保持通訊。這一方案旨在規避地面資料中心面臨的諸多障礙,包括日益複雜的規劃審批程序、當地社區的反對,以及現有電網無法滿足AI極速擴張帶來的巨大能源缺口。據行業估算,AI所創造的能源需求已難以在地球現有的資源邊界內得到滿足。02 太空雷區:擁擠軌道的碰撞風險與技術挑戰儘管太空提供了無限的能源潛力,但其技術風險不容忽視。密歇根大學空間科學家Mojtaba Akhavan-Tafti指出,Google計畫使用的軌道也是近地軌道中最為擁擠的路徑之一。為了實現互聯互通,這些衛星之間的間距僅為100米至200米。Mojtaba Akhavan-Tafti警告稱,在如此近的距離下,軌道導航的誤差容限幾乎為零。一旦發生單次撞擊,不僅可能摧毀一顆衛星,還可能引發連鎖反應,導致整個衛星叢集毀滅,並向本已是“雷區”的軌道散佈數百萬塊碎片。歐洲航天局資料顯示,目前軌道上已有超過120萬塊尺寸超過1釐米的碎片,任何一塊都可能造成災難性破壞。隨著軌道交通激增,“凱斯勒效應”(Kessler effect)——即碎片引發連鎖碰撞導致軌道無法使用——的可能性正在上升。此外,Google的論文也承認,太空輻射會降解電子裝置並破壞資料。更為棘手的是,與地面設施不同,太空資料中心幾乎無法進行遠端硬體維護,如何處理故障硬體或報廢衛星仍是未解難題。03 微軟水下項目折戟與高昂的“上天” 成本在Google之前,微軟也曾探索過利用非常規環境解決資料中心散熱和能耗問題。2018年,微軟在蘇格蘭海岸沉入了一個名為Project Natick的水下資料中心。然而,據報導該項目已經結束,微軟且表示沒有進一步的海底計畫。相比於海底,在太空中建立資料中心的難度呈指數級增加。儘管火箭發射成本正在通過SpaceX等公司的努力不斷降低,但在這一階段,太空電力的單位成本與地面電力相比大致相當,並無顯著的成本優勢。當被問及具體置評時,Google方面僅引用了相關的預印本論文及部落格文章。04 科技巨頭的太空圈地運動?除了技術和成本障礙,該項目還引發了關於太空治理的擔憂。天文學家擔心,更多的衛星星座將進一步干擾科學觀測。目前地球周圍已有近1.6萬顆衛星在運行,其中近9000顆屬於馬斯克的Starlink網路,且還有1.5萬顆新衛星的計畫正在接受審查。Starlink已因反射光線干擾光學圖像以及無線電洩漏干擾射電天文學而受到詬病。目前的太空領域正逐漸成為Jeff Bezos和馬斯克等科技巨頭缺乏規則約束的競技場。Google的這一計畫不僅可能加劇光污染和無線電干擾,還暴露了針對太空這一公共資源的有效治理機制的缺失。對於市場而言,這既是一次展示AI無限潛力的豪賭,也是該行業在能源焦慮下“過度擴張”的隱喻。 (硬AI)
馬斯克暗示特斯拉、SpaceX、xAI深度融合時代即將到來
12月12日,特斯拉CEO馬斯克在X平台回覆一則帖文,僅以“Convergence”(融合)一詞回應。該帖文原作者展示了一段簡短動畫視訊,視訊中一顆衛星在軌道上緩緩展開太陽能陣列,其表面清晰標註特斯拉、SpaceX和xAI三大公司標誌,象徵馬斯克商業帝國三大支柱的技術深度融合——共同打造太空AI資料中心。這一概念的核心在於,利用太空無限太陽能和真空自然冷卻優勢,搭載特斯拉高效AI晶片、SpaceX星鏈衛星平台以及xAI的Grok大模型,實現大規模分佈式AI計算。SpaceX不僅提供星鏈的高頻寬雷射鏈路用於資料傳輸,還憑藉其火箭低成本、高頻次發射能力,將大量搭載AI計算模組的衛星快速送入軌道,成為融合體系中不可或缺的關鍵環節。馬斯克近期多次公開表示,未來3至5年內,太空AI系統將在成本、能效和規模上全面超越傳統地面資料中心。業內分析認為,馬斯克此舉直指全球AI基礎設施面臨的能源困境。當前,資料中心電力消耗已佔全球總用電量10%以上,而太空方案可徹底擺脫電網限制、土地約束和巨量冷卻需求。新一代星鏈衛星將支援低延遲全球計算網路,形成完整技術閉環。這一“Convergence”被視為馬斯克生態體系的戰略轉折點:SpaceX負責火箭發射、軌道部署與維護,特斯拉貢獻硬體實力,xAI提供核心智能模型。三者合力,不僅有望鞏固其在AI領域的絕對領先地位,還可能加速太空計算基礎設施的商業化處理程序,並為SpaceX明年的潛在IPO注入強大動力。馬斯克的這一回覆,預示著一個特斯拉、SpaceX與xAI深度融合的時代即將到來,或將深刻重塑全球AI與計算產業的未來格局。 (不看車)
AI公司正陷入囚徒困境!知名科技投資老鳥警告:未來三到四年最重要的是建設太空資料中心,OpenAI最大痛點是每token成本太高
“AI 時代,誰是 token 的最低成本生產者,誰就擁有決定性優勢。”“未來三四年,最重要的事情是太空資料中心。”近日,知名科技投資人Gavin Baker在最新採訪中與主持人深入探討了輝達與Google之間的基礎設施戰爭,Gemini3和Scaling Law的影響,以及從Hopper向Blackwell晶片的轉變如何重塑了整個行業。Gavin Baker是Atreides Management的管理合夥人兼首席投資官(CIO),以其在公開市場上對科技趨勢,尤其是AI領域的深刻洞察而聞名。其中有關太空資料中心的觀點,也得到了馬斯克的認同:Gavin尖銳地指出,過去幾年所有AI公司都陷入“囚徒困境”:如果你放慢腳步,你就永遠出局;如果競爭對手不停,你只能繼續投。他認為,在模型進展上,Gemini 3 證明Scaling Law仍然成立。過去一段時間 AI 的主要進步則更多來自後訓練的兩條新縮放路徑,也就是帶驗證回報的強化學習與測試時算力,讓 AI 在新一代硬體還沒有完全到位時仍能繼續推進。Blackwell(GB200/GB300)和 AMD MI450 的出現,將帶來大幅降低每 token 成本的能力。Gavin強調,xAI 將是最快推出 Blackwell 模型的公司,因為它擁有最快的資料中心部署能力和大規模叢集調通經驗。Gavin還指出,過去 Google 是全球最低成本 Token 生產者,這給了他們巨大優勢。但隨著GB300開始量產,低成本時代將屬於 Nvidia 的客戶,如OpenAI、xAI 等。至於太空資料中心的建設,他認為這是未來三到四年最重要的事情,“現在這是一場巨大的淘金熱”。此外,他還分析了:AI 推理如何讓飛輪啟動,徹底改變資料和使用者反饋的價值邏輯;端側 AI 對算力需求的潛在衝擊,可能讓雲算力的爆發放緩;SaaS 公司在 AI 時代面臨的毛利困局,以及誰能抓住下一波風口。小編節選整理了部落格內容,資訊量巨大,enjoy!Gemini 3 與前沿模型整體進度主持人:公眾對 Gemini 3 的理解大多集中在擴展定律(Scaling Laws)與預訓練機制。你怎麼看當前的前沿模型整體進展?Gavin:Gemini 3 非常重要,因為它再次確認:預訓練的擴展定律仍然成立。關鍵在於,全世界沒人真正知道為什麼擴展定律成立。它不是理論,是經驗事實,而且被極其精確地測量、驗證了很多年。我們對擴展定律的理解,就像古埃及人對太陽運行的理解:能精確測量,卻完全不知道背後的物理機制。所以每一次確認都非常關鍵。基於擴展定律,其實 2024–2025 按理應該沒有任何 AI 進展。原因是:xAI 把 20 萬 Hopper GPU 做到完全“coherent”(訓練時 GPU 彼此同步共享狀態)之後,下一步就必須等下一代晶片。Hopper 時代的上限就是 20 萬片,你再擴都沒用。但真正的故事是: “推理(Reasoning)”救了整個 AI 行業如果沒有推理模型(OpenAI 在 2024 年 10 月推出的 Reasoning 系列),整個行業會從 2024 年中期到 2025 年底 陷入 18 個月停滯。推理帶來了兩條全新擴展定律:強化學習 + 可驗證獎勵(RL + Verified Rewards)“在 AI 中,凡是你能驗證的,你就能自動化。”測試時計算(Test-Time Compute)也就是讓模型在推理階段使用更多算力。這兩條擴展定律讓 AI 在沒有新 GPU 的 18 個月裡依然高速進步。xAI會最快訓練出 Blackwell 模型Gavin:Google 在 2024 推 TPU v6、2025 推 TPU v7。這些晶片性能飛躍巨大,相當於從二戰戰機跳到冷戰噴氣機。因為 Nvidia Blackwell(GB200)極度困難、延遲嚴重,Google 等於是提前拿到了下一代“材料”。Gemini 3 正是在更強 TPU 上驗證預訓練擴展定律的第一次大考,結果通過了。這意味著:Blackwell 時代訓練出來的模型會非常強。2026 年初會出現第一批真正的 Blackwell 模型。我認為最快的是 xAI。理由很簡單:黃仁勳曾說過,“沒有人比 Elon Musk 更快建資料中心。”Blackwell 這種超級複雜的晶片,需要海量叢集快速部署來“磨合”。只有 xAI 能做到最快部署、最多叢集、最快調通。所以他們會最先訓練出 Blackwell 模型。Google“低成本生產 Token”的戰略地位將被逆轉Gavin:過去 Google 是 全球最低成本 Token 生產者,這給他們巨大優勢:他們可以用低價(甚至負毛利!)讓競爭對手幾乎無法呼吸。這是極其理性的企業戰略。但當 GB300(比 GB200 更強)開始量產、並且能無縫替換進現有機房後,低成本時代將屬於 Nvidia 的客戶(OpenAI、xAI 等)。到那時,Google 就不再是最低成本生產者,就不能再輕易靠“負 30% 毛利”窒息競爭者。AI 行業經濟格局將大幅改變。為什麼 TPU v8 / v9 趕不上 GPU?主持人:為什麼會這樣?為什麼 TPU v8、v9 無法做到和 GPU 一樣優秀?Gavin:這裡有幾點原因。第一點:Google 做了更加保守的設計選擇原因之一我認為是他們的晶片設計流程本身比較特殊。半導體設計分為前端(Front-End)與後端(Back-End)。另外還有與台積電合作的晶圓代工環節。製造 ASIC 有很多方式,而 Google 的方式是:Google 主要負責前端設計(相當於建築師畫房子的圖紙)Broadcom 負責後端設計與量產(相當於施工方蓋房子,並負責與台積電合作)這是個粗略類比,但能說明問題。Broadcom 的半導體業務長期維持 50~55% 毛利率。我們不知道 TPU 的具體數字,但如果假設到 2027 年 TPU 業務規模達到 300 億美元,那麼 Broadcom 大概會從中賺走 150 億美元的毛利。對 Google 來說,這實在太貴了。當一個公司把 ASIC 業務做大到這種量級,就會出現一個非常明顯的經濟動力:把所有晶片設計和製造流程“收歸自研”。蘋果就是這麼幹的。蘋果的晶片沒有 ASIC 合作夥伴,前端蘋果自己做,後端蘋果自己做,生產也由蘋果直接管理台積電,因為他們不想為外包設計付 50% 毛利。當業務規模夠大時,你完全可以把 Broadcom 這類供應商的工程師挖走、薪水翻倍、甚至三倍,還可以省錢。如果 TPU 到 2028 年規模做到 500 億美元,那 Google 每年付給 Broadcom 的錢會變成 250 億。那 Google 完全可以去 Broadcom 把整個團隊全買走,把成本反而降下來。當然,出於競爭與監管原因 Google 不能真的這麼幹,但這些“經濟摩擦”已經影響 TPU v8 / v9 的設計節奏了。第二點:Google 引入了聯發科(MediaTek),在敲打 Broadcom這是一個明確的訊號:Google 對付給 Broadcom 的高額費用已經非常不滿。台灣的 ASIC 公司(包括聯發科)毛利要低得多,把他們引入,就是“第一槍”。第三點:SerDes 是晶片之間通訊的核心技術,但有價值上限Broadcom 的 SerDes 確實很好,但SerDes 的價值上限也就 100~150 億美元等級,絕沒到 250 億美元 這種程度,世界上還有其他優秀的 SerDes 供應商所以,Google 沒必要永遠被 Broadcom 卡住。第四點:Google 的保守設計,可能是因為供應鏈“分裂”要開始了Google 正在準備多家供應商平行工作(Broadcom + MediaTek)。這種“分裂的供應鏈”會讓設計更加保守,因為你要保證每家廠商都能按時做出一致的結果。這讓 TPU 的迭代速度變慢了。第五點:GPU 正在加速,而 ASIC 正在變慢這是行業最關鍵的趨勢。Nvidia 和 AMD 的回應是:“你們所有人都在造自己的 ASIC?好,我們就一年一代,讓你們永遠追不上。”GPU 的迭代速度現在是過去的 2 倍甚至 3 倍。而當你去做 ASIC(TPU、Trainium、各種自研晶片)時,你會突然意識到:“哦……原來造 ASIC 根本不是只做一個晶片這麼簡單!”你要同時解決:晶片本體、NIC(網路介面卡)、CPU、Scale-up 交換機、Scale-out 交換機、光模組、軟體棧、訓練框架、生態系統、整個供應鏈。你做出來一個小晶片,結果發現:“糟糕,我只是做了一個微小元件,而 GPU 廠商已經把整個巨型系統打通了。”第六點:做出“好 ASIC”需要至少三代Google TPU 的歷史就是活生生的例子:TPU v1:能用,但力量不足TPU v2:好一點TPU v3/v4 才開始接近真正“能打”Amazon 的 Trainium 也是一樣:Trainium 1:比 TPU v1 略好,但差不多等級Trainium 2:變強一點Trainium 3:第一次達到“可以接受”Trainium 4:預計才會真正成為好晶片這就是經驗積累 → 工程成熟 → 系統打磨,無法跳步驟。這意味著所有其他試圖“自研 AI 晶片”的公司都會發現自己根本追不上 Nvidia、AMD。第七點:最終,TPU 和 Trainium 也會變成“客戶自有工具鏈”你可以爭論具體年份,但方向是確定的。因為從第一性原理來說,當規模足夠大,把晶片從外包轉為自研是經濟必然。主持人:如果把視角拉遠一點,這一切的意義是什麼?三代 GPU、三代 TPU、三代 Trainium 之後,這場巨大戰爭將給全人類帶來什麼?Gavin:如果讓我給出一個事件路徑:第一步:Blackwell 時代的模型將極其強大。第二步:GB300(以及 AMD MI450)帶來每 Token 成本的大幅下跌。這會讓模型可以“思考更久”。當模型能思考更多步,就能做新的事情。我被 Gemini 3 第一次“主動幫我做事”震撼到:它幫我訂餐廳。以前模型都是給我生成文字、做研究,這次是直接辦成一件現實任務。如果它能訂餐廳,那就離訂機票、訂酒店、打 Uber、管日程、全面生活助理不遠了。大家現在都在談這個,但真的想像一下:這東西最終會跑在手機裡。這就是近期就會發生的未來。而且你看,現在一些非常“技術前沿”的大公司,他們超過 50% 的客服已經完全由 AI 處理了。客服是一個 4000 億美元的大產業。而 AI 特別擅長的一件事,就是“說服”,這正是銷售和客服的核心能力。從一家公司的角度想,如果把業務拆開,就是:做產品、賣產品、服務使用者。現在看,到 2026 年底,AI 很可能在其中兩塊已經非常拿手了。這又回到 Karpathy 說過的那句話:AI 可以自動化所有“可被驗證”的任務。凡是存在明確對錯結果的事情,你都可以用強化學習把模型訓練得非常強。主持人:你最喜歡的例子有那些?或者說未來最典型的?Gavin:比如讓模型自動訓練模型本身;比如全球帳目是否能對齊;比如大規模會計工作;或者銷售、客服這些“明確可驗證結果”的任務。如果這些在 2026 年開始全面落地,那麼NVIDIA Blackwell就有明確 ROI,然後領域繼續往前走,接著會迎來Rubin,再接著是 AMD MI450、Google TPU v9。ASI與大公司的“囚徒困境”Gavin:但最有意思的問題是:人工超級智能(ASI)到底會產生怎樣的經濟回報?過去幾年所有公司都陷入“囚徒困境”:如果你放慢腳步,你就永遠出局;如果競爭對手不停,你只能繼續投。微軟今年早些時候“猶豫”了 6 周,我想他們大概會說他們後悔。但是隨著 Blackwell、特別是 Rubin 的到來,經濟因素將會壓倒囚徒困境。因為數字實在太誇張了。你看那些買 GPU 最大的公司,都是上市公司,他們每季度都有審計過的財報,你完全可以算出他們的 ROIC(投入資本回報率)。而所有這些公司在大規模買 GPU 後,ROIC 比之前更高。有人說那是因為減少了營運成本,但那本來就是期待的 AI ROI。還有很多收入增長,其實來自廣告推薦系統從 CPU 遷移到 GPU 帶來的效率提升。但不管怎樣,ROI 已經非常明確。每家網際網路大廠內部,掌管營收的人都非常不爽,因為他們認為太多 GPU 被給了研究團隊:“你把 GPU 給我,我就能增長營收。”這在每家公司都是永恆的爭奪。主持人:我很好奇你有那些“潑冷水”的看法,會讓算力需求增長放緩?Gavin:最明顯的“空頭邏輯”是端側 AI(Edge AI)。三年後,只要手機稍微變厚一點、塞下更多 DRAM、電池短點續航,你就能在本地運行一個剪裁版 Gemini 5、Grok 4/4.1、ChatGPT,達到30–60 tokens/s,IQ 115 左右。而且這是免費的。顯然,這就是蘋果的戰略:在本地運行隱私安全的模型,只有需要時才呼叫雲端的“上帝大模型”。如果端側 AI 滿足90% 的需求,那這將是最嚇人的“空頭論點”。另一個風險是 scaling law 不再生效。但如果假設 scaling law 繼續有效,預訓練肯定還能撐一代;後訓練(RLVR 等)剛起步;推理階段的 test-time compute 也才剛開始。而且我們已經在取得巨大進展,比如模型能把越來越多上下文裝進“腦子”裡。長期來看,大上下文窗口可能是解決當前很多問題的關鍵。配合 KV-cache offload 這一類技術,它們潛力巨大。對 Meta、Anthropic、OpenAI的看法主持人:我們其實還沒有聊太多 Meta、Anthropic、OpenAI。我很好奇你對整個基礎設施層的看法。這三家是這個“大博弈”裡最關鍵的玩家。我們前面討論的所有趨勢,對這幾家公司會產生什麼影響?Gavin:我先談談對 frontier 模型整體的一些看法。在 2023–2024 年,我特別喜歡引用Erik Brynjolfsson(美國經濟學者) 的一句話。Erik 說:“基礎模型是歷史上增值速度最快的資產。”我認為他說對了 90%。我當時補了一句:“擁有獨特資料和網際網路等級分發能力的基礎模型,才是歷史上增值最快的資產。”但“推理” 的出現徹底改變了這一切。以前所有偉大網際網路公司的核心飛輪都是:做出好產品→ 吸引使用者 → 使用者產生資料 → 用資料改進產品 → 更多使用者 → 更多資料……Netflix、亞馬遜、Meta、Google都靠這套飛輪運轉十年以上,這也是為什麼它們擁有極強的規模回報。然而,這個飛輪在“無推理能力”的AI 時代是不存在的。你預訓練一個模型,把它丟到現實世界,它就那樣了。你可以做 RLHF,基於一些使用者反饋去調整,但那個過程噪音大、訊號弱、反饋難以精確量化,很難真正變成“可驗證獎勵”反饋回模型但推理讓飛輪開始轉動了。現在,如果大量使用者不斷提出某類問題,並持續對某些回答給出明確的正向或負向反饋,這些都能被轉化為可度量、可驗證的獎勵訊號,再反饋回模型做強化學習。我們現在還處在非常早期的階段,但飛輪已經開始轉動了。這是對所有 frontier labs 的格局影響最大的變化。主持人:你能具體解釋一下嗎?為什麼 reasoning 會讓飛輪成立?Gavin:如果大量使用者在問同一個問題,並穩定地偏好某些答案、不喜歡另一些答案,這就產生了一個穩定一致的獎勵訊號。而且這個獎勵訊號是可驗證的。模型就能把這些偏好再次學習回去。雖然現在還早、還很難做,但你已經能看到飛輪開始啟動。第二點,我認為非常重要的是:Meta。祖克柏在今年1 月曾說過一句話:“我高度確信,到2025 年的某個時間點,我們將擁有最強、最好的AI。”我現在不確定他是不是仍然能排進前 100 名。他當時的判斷可以說是錯得不能再錯。而我認為這是一個非常重要的事實,因為它說明:這四家美國前沿實驗室做到的事情,其實難度遠比外界想像的大。Meta 砸了巨額資金,也失敗了。Yann LeCun團隊出現動盪,他們甚至推出了那個著名的“10 億美元挖 AI 研究員”的計畫。順帶說一句,微軟也失敗了。他們雖然沒有像 Meta 那樣做明確預測,但微軟收購了 Inflection AI,當時他們內部也多次說:“我們預期自己的內部模型會迅速變強,未來 Copilot 會越來越多跑在內部模型上。”亞馬遜則收購了 Adept AI,他們有自己的 Nova 模型,但我不認為它能進入前 20 名。所以很顯然,這件事比一年前所有人以為的都要難得多。原因有很多,例如要讓一個巨型 GPU 叢集保持“同步一致”其實非常困難。許多傳統科技公司過去營運基礎設施時都以“節省成本”為核心,而不是以“性能複雜度”為核心。要讓一大堆 GPU 在大規模叢集裡保持高利用率,這是極其難的事情,而且不同公司在 GPU 維運能力上差距非常大。如果你最多能把兩、三十萬顆 Blackwell(GPU)跑到高效一致,而你的叢集只有 30% 的有效執行階段間,而你的競爭對手能做到 90%,那你們根本不在同一個維度競爭。這就是第一點:不同公司在 GPU 維運能力上存在巨大差距。第二點,這些 AI 研究人員喜歡談“品味”,我覺得很好笑。“你為什麼賺這麼多錢?”“因為我的品味很好。”所謂“品味”,其實就是一種對實驗方向的直覺判斷能力。而這正是為什麼這些人能拿很高的薪水。隨著模型規模繼續增大,你已經不能像以前一樣,先在一個 1000 GPU 的叢集上跑一次實驗,再把它複製到 10 萬 GPU 上。你必須直接在 5 萬 GPU 規模上跑實驗,而且可能要跑好幾天。機會成本極高。所以你必須有一支極強的團隊,知道應該把算力押在那些實驗上。然後,你還必須把 RL(強化學習)、後訓練、推理成本控制等所有部分都做到很好。整個流程極其複雜。做這一切,非常非常難。很多人以為簡單,但其實一點都不簡單。我以前做零售行業分析時常說:在美國任何一個行業,如果你能營運 1000 家門店,並讓它們保持整潔、燈光明亮、陳列合理、價格得當、員工友好並且不偷東西——你就能成為一家 200 億或 300 億美元的公司。但結果是,全美國只有 15 家公司能做到。真的非常難。AI 也是同樣的道理:要把所有環節都做到位,非常難。而這也讓所謂的“推理飛輪”開始拉開差距。更重要的是,這四家實驗室,XAI、Gemini、OpenAI、Anthropic,它們內部都有比公開型號更先進的“檢查點”。所謂檢查點,就是模型持續訓練過程中階段性的版本。它們內部使用的版本更強,它們又用這些更強的版本去訓練下一個版本。如果你沒有這些最新的 checkpoint,你就已經落後了,而且會越來越難追上。中國開源對 Meta 來說是“天賜禮物”。因為 Meta 可以用中國開源模型當成自己的 checkpoint,從而實現“自舉”(bootstrap)。我相信他們正在這麼做,其他公司也一樣。OpenAI的最大痛點:Per-token成本太高Gavin:回到公司競爭格局:XAI 將會是第一家推出 Blackwell 模型的公司,也是第一家在大規模推理場景中使用 Blackwell 的公司。這對他們來說是非常關鍵的節點。順便說一句,如果你現在去看 openrouter 的資料,xAI 已經佔據主導地位了。openrouter 可能只佔 API token 的 1%,但它是一個趨勢訊號:XAI 處理了大約1.35 兆 tokenGoogle 大約800–9000 億Anthropic 大約7000 億XAI 表現非常好,模型也很棒,我強烈推薦。你會看到:XAI 先推出模型,OpenAI 會隨後跟上,但速度更快。但是 OpenAI 現在最大的痛點,是它們的 per-token 成本太高,因為他們需要為算力支付溢價,而且合作方不一定是最擅長維運 GPU 的那批人。結果就是OpenAI 是高成本的 token 生產者。這也解釋了他們近期的“紅色警戒”。他們承諾了1.44 兆美元的未來 GPU 支出,這是一個巨大的數字,因為他們知道自己需要大量融資,尤其是如果 Google 繼續“把生態的經濟氧氣吸乾”,那 OpenAI 的壓力更大。他們會推出新模型,但在相當長的時間裡,他們仍然無法解決自己相對於 XAI、Google、甚至 Anthropic 的成本劣勢。Anthropic 是一家好公司,他們燒錢遠低於 OpenAI,但增長更快。所以我覺得必須給Anthropic很多的認可,而這很大程度上得益於他們和Google、Amazon在TPU和Trainium上的合作關係。Anthropic能夠從與Google相同的動態中受益,我認為這在這場精彩的“國際象棋”遊戲中非常具有指示意義。你可以看看Daario Jensen,可能有一些公開評論,他們之間有一些小小的交鋒。Anthropic剛剛和Nvidia簽了50億美元的合同。那是因為Dario是個聰明人,他理解關於Blackwell和Rubin相對於TPU的這些動態。所以Nvidia現在從原來的兩個“戰士”(XAI和OpenAI)增加到了三個戰士。這有助於Nvidia在與Google的競爭中佔據優勢。如果Meta能夠趕上,這也非常重要。我相信Nvidia會盡其所能幫助Meta,比如:“你這樣運行這些GPU,我們或許可以把螺絲擰緊一點,或者調整一下參數。”此外,如果Blackwell回到中國,看起來很可能會發生,那也非常好,因為中國的開源生態也會回歸。未來三到四年,最重要的是太空資料中心主持人:我總是很好奇關於資料中心的一些問題,比如你腦中有沒有關於非晶片方面的突破?Gavin:我認為未來三到四年世界上最重要的事情是太空中的資料中心,這對地球上建造電廠或資料中心的人都有深遠影響。現在這是一場巨大的淘金熱。大家都覺得AI很有風險,但我打算建一個資料中心,一個電廠來驅動資料中心。我們肯定需要它。但如果從最基本的原理來看,資料中心應該建在太空裡。運行資料中心的基本投入是什麼?是電力、冷卻和晶片。總成本角度來看,這就是全部的投入。在太空中,你可以讓衛星全天候在陽光下運行,而且陽光的強度高出30%。你可以讓衛星一直接收光照,這意味著外太空的輻照度比地球高六倍,所以你能獲得大量太陽能。其次,因為全天都有陽光,你不需要電池,而電池成本佔比巨大。所以太空中可用的最低成本能源就是太陽能。冷卻方面,在一個機架中,大部分重量和體積都是用於冷卻,而地球上的資料中心冷卻非常複雜,包括HVAC、CDU、液冷等。而在太空中,冷卻是免費的,你只需把散熱器放在衛星的背光面,這幾乎接近絕對零度,所有這些成本都消失了,這節省了大量開銷。每顆衛星可以看作是一個機架,也有人可能製造三機架的衛星。那麼如何連接這些機架呢?在地球上,機架通過光纖連接,本質上是通過電纜傳輸雷射。而唯一比光纖更快的,是通過真空傳輸雷射。如果你能用雷射把太空中的衛星連接起來,你就擁有比地球資料中心更快、更穩定的網路。訓練方面,這需要很長時間,因為規模太大。但推理(inference)方面,我認為最終訓練也會發生。考慮使用者體驗:當我問Grok問題並得到回答時,手機發出的無線電波傳到基站,然後進入光纖,經過紐約某個匯聚設施,再到附近的資料中心完成計算,最後返回。如果衛星可以直接與手機通訊,而Starlink已經展示了直接到手機的能力,那麼體驗將更快、更低成本。所以從最基本的原理來看,太空資料中心在各方面都優於地球上的資料中心。主持人:那麼阻礙因素是什麼?是發射成本嗎?還是發射可用性問題?Gavin:我的意思是,我們需要大量的太空飛船。像Starship這樣的飛船是唯一能夠經濟地實現這一目標的飛船。我們需要很多這樣的Starship。也許中國或俄羅斯能夠回收火箭,Blue Origin剛剛回收了一個助推器。這完全是一種全新的思考SpaceX的方式。很有趣的是,Elon昨天在採訪中提到,Tesla、SpaceX和XAI正在趨於融合,實際上確實如此。XAI將成為Tesla Optimus機器人的智能模組,Tesla Vision提供感知系統,而SpaceX將擁有太空中的資料中心,為XAI、Tesla、Optimus以及許多其他公司提供AI算力支援。這種融合非常有趣,每個公司都在為其他公司創造競爭優勢。如果你是XAI,有了與Optimus的內建關係非常好,Tesla又是上市公司,任何內部協議都會經過嚴格稽核,而太空資料中心又帶來了巨大優勢。此外,XAI還有兩家公司擁有大量客戶,可以幫助他們建立客戶支援和銷售AI代理系統。總的來說,這些公司正在以一種巧妙的方式融合在一起。我認為當xAI明年推出第一個Blackwell模型時,將是一個重要時刻。如何看待算力短缺的周期性問題主持人:歷史上人類經濟中短缺總會伴隨資本周期的過剩。如果這次短缺是算力,比如Mark Chen曾表示,如果給他們幾周時間,他們會消耗十倍算力。似乎算力仍然存在巨大短缺,但歷史規律表明短缺之後會出現過剩。你怎麼看這個規律在這項技術上的體現?Gavin:AI與傳統軟體根本不同,每次使用AI都會消耗算力,而傳統軟體不會。確實,每家公司都可能消耗十倍算力,結果可能只是讓200美元檔的服務更好,免費檔可能會加入廣告。Google已經開始用廣告為AI模式變現,這會給其他公司引入免費模式廣告的許可,這將成為重要的ROI來源。OpenAI等公司也會在服務中收取佣金,例如幫你預訂旅行,獲取一定收入。半導體行業中庫存動態會導致周期性波動。半導體的“鐵律”是客戶緩衝庫存必須等於交貨周期,因此出現庫存周期。我們最近沒有看到真正的半導體產能周期,也許自90年代末以來就沒有。原因是台灣半導體非常擅長整合和穩定供應,但現在他們的產能擴張未跟上客戶需求。我認為台灣半導體可能會犯錯誤,因為他們過於擔心產能過剩。他們曾經嘲笑Sam Altman,認為他不懂,他們害怕產能過剩。從另一個角度看,功率作為“限速器”對最先進計算玩家非常有利。如果功率受限,計算成本就不重要,你每瓦特獲得的算力越高,收入越高。建造資料中心的投資回報取決於單位功率的收益,這是對最先進技術非常有利的。至於能源解決方案,美國無法快速建造核電站,法律和環境限制太嚴格。解決方案是天然氣和太陽能,AI資料中心可以靈活選址,這也是為什麼美國各地,包括Abilene,會有大量活動,因為這裡靠近天然氣產區。渦輪機製造商正在擴張產能,比如Caterpillar計畫在未來幾年增加75%產能,所以電力問題正在得到解決。SaaS公司犯的“亞馬遜式錯誤”主持人:我們來談談SaaS吧,你怎麼看?Gavin:應用型SaaS公司正在犯和實體零售商對待電商時同樣的錯誤。實體零售商,特別是在電信泡沫破裂後,他們看到了亞馬遜,覺得“哦,它在虧錢,電商是低利潤業務。”從基本原理來看,怎麼可能效率更高呢?現在,我們的客戶自己去店裡,付運輸費,然後再付把商品運回家的費用。如果我們直接把貨物發給每個客戶,怎麼可能效率更低呢?亞馬遜的願景當然是,最終我們會沿街把包裹送到每戶人家。因此,他們當時沒有投資電商,雖然看到客戶需求,但不喜歡電商的利潤結構。這就是幾乎所有實體零售商在投資電商方面動作緩慢的根本原因。現在來看,亞馬遜在北美零售業務的利潤率甚至高於很多大眾零售商。利潤率會變化,如果客戶需求一項根本性的變革性新技術,不去接受總是錯誤的,這正是SaaS公司正在犯的錯誤。這些SaaS公司有70%、80%、甚至90%的毛利率,但他們不願接受AI帶來的毛利率。AI的本質是,每次都需要重新計算答案,而傳統軟體寫一次就能高效分發,這也是傳統軟體很好的商業模式。AI正好相反,一個優秀的AI公司毛利率可能只有40%。主持人:那為什麼他們還能夠早期產生現金流?Gavin:奇怪的是,由於效率提升,他們比傳統SaaS公司更早產生現金流,但不是因為高毛利,而是因為員工很少。看著這些公司很悲哀,如果你想運行AI代理,但不願意接受低於35%的毛利率,它永遠不會成功,因為AI原生公司就是以40%左右的毛利在運作。如果你試圖保持80%的毛利結構,等於保證在AI上失敗,這是絕對的保證。這很瘋狂,因為我們已有案例證明軟體投資者願意忍受毛利壓力,只要毛利潤美元總額合理,這就是雲端運算的存在證明。你可能忘了,Adobe從本地部署轉向SaaS模式時,不僅毛利下滑,收入也大幅下降,因為從一次性收費變為多年分期收費。微軟的情況沒那麼戲劇,但早期雲轉型的股票也很難,投資者覺得“天啊,你是個80%毛利的業務,現在毛利下降到50%”。但事實證明,只要毛利潤美元總額增長,這些毛利可以隨著時間改善。微軟買下GitHub,現在GitHub也成為Copilot的分發管道,這是一筆巨大的業務,毛利較低,但成功了。幾乎沒有一家應用型SaaS公司不能運行成功的AI代理策略。他們相較AI原生公司有巨大優勢,因為他們有現金流業務。我認為有機會出現新的“建設性激進者”,去告訴SaaS公司:別再這麼傻了。只需展示AI收入和毛利,說明真實的AI是低毛利的,並且對比風險投資支援的虧損競爭者。有些公司甚至可以暫時將毛利降為零,但他們有現成現金流業務。這是一套顯而易見的玩法,Salesforce、ServiceNow、HubSpot、GitLab、Atlassian,都可以運行。使用AI代理的方法很直接:先問自己,當前為客戶提供的核心功能是什麼?如何用代理進一步自動化?例如CRM,客戶做什麼?他們與客戶溝通,我們做客戶關係管理軟體,也做客戶支援。做一個可以執行這些功能的代理,以10%-20%的價格出售,讓代理訪問所有資料。目前的情況是,其他人開發的代理訪問你的系統,把資料拉走,最終你會被替換。這完全是因為企業想保持80%毛利,這是一場生死攸關的決策。除了微軟,幾乎所有人都在失敗。正如Nokia當年備忘錄所說,你的平台在燃燒,你可以跳到新的平台去撲滅火。 (51CTO技術堆疊)
🎯錯過欣興、德宏別哭!這檔PCB隱藏版巨星,EPS要從4元暴衝到20元?!Line@連結:https://lin.ee/mua8YUP🔥全球AI、HPC、資料中心需求炸裂!今年PCB產值就要破9000億,年增12%!你以為PCB只是板子?錯!這是AI帝國背後的金礦!看看欣興11月營收115億,月年雙增,寫下44個月新高,股價火箭般飆天!還有德宏、大量、定穎、尖點、台燿...等11月全線新高,整個族群沸騰中!但短線漲多的PCB股,追?太危險!先等拉回支撐,再接才安全。🔥重點來了!PCB派對還有一檔「真正的大肉」:8358金居!為什麼值得特別關注?簡單三個字:供不應求!1.HVLP4高階銅箔,全球少得可憐。日系大廠都在控量,金居是台系唯一大規模供應商!需求從2026 Q1每月400~600噸,暴衝到年底1200~1500噸,缺口大到瘋狂。價格?自然水漲船高!2.毛利率大翻轉!金居全面導向高階產品,低階產品線斷捨離。HVLP4放量+加工費調升,毛利率從22.8%飆到39%,利潤彈性超驚人!3.產能全開藍圖:2026量價齊升,500~600噸/月跑滿;2027新廠開出,全廠HVLP產能上看1000噸,營收翻倍不是夢!🔥金居數字也給力:11月營收7.16億,月增2%、年增28%,法人預估2025EPS 4.2~4.7元,2026衝15元,2027挑戰20元!金居,鋪路年2025、爆發年2026、收割年2027!PCB輪漲後,它可能就是年底最佳男主角!🔴你想搶這波AI PCB大成長紅利嗎?接下來我們會在粉絲團持續幫大家鎖定+追蹤,若還不知道該如何操作?那建議你務必要鎖定江江在Line @,將有更進一步的訊息給大家了解。https://lin.ee/mua8YUP🔴想了解還未起漲的市場主流,同步了解大盤多空轉折點及學習預測技術分析,江江YT節目都會持續追蹤+預告。https://reurl.cc/02drMk********************************************************有持股問題或想要飆股→請加入Line:https://lin.ee/mua8YUP江江的Youtube【點股成金】解盤:https://reurl.cc/02drMk*********************************************************(本公司所推薦分析之個別有價證券 無不當之財務利益關係以往之績效不保證未來獲利 投資人應獨立判斷 審慎評估並自負投資風險)